अभी तक भविष्यवाणी करने के लिए डेटा रखने की कोशिश नहीं की गई है, लेकिन मेरा अंतर्ज्ञान यह है कि आपके मॉडल में शून्य को शून्य करने के लिए अलग, एकल-चतुर्थ, रैखिक प्रतिगमन समीकरणों के सेट को मिलाकर DV की भविष्यवाणी करने के लिए अनुरूप है। इस दृष्टिकोण के विपरीत, आईवी की भविष्यवाणी करने के लिए समीकरणों के एक मॉडल का निर्माण करते समय आईवी में सहसंयोजक के लिए कई प्रतिगमन खाते। यह निश्चित रूप से प्रत्यक्ष प्रभावों को अप्रत्यक्ष प्रभावों से अलग करके व्याख्या में सुधार करता है जो पूरी तरह से IVs के शामिल सेट के भीतर होते हैं। ईमानदारी से, मुझे यकीन नहीं है कि क्या यह जरूरी DV की भविष्यवाणी में सुधार करता है। एक सांख्यिकी उपयोगकर्ता होने के नाते और एक सांख्यिकीविद् नहीं, मैंने एक अपूर्ण उत्तर देने के लिए निम्नलिखित सिमुलेशन परीक्षण फ़ंक्शन को एक साथ फेंक दिया (जाहिरा तौर पर, "हां, उम्मीद के मुताबिक सटीकता में सुधार होता है जब मॉडल IV कोवरियन को शामिल करता है") इस उम्मीद के अनुरूप मामले में ...
simtestit=function(Sample.Size=100,Iterations=1000,IV.r=.3,DV.x.r=.4,DV.z.r=.4) {
require(psych); output=matrix(NA,nrow=Iterations,ncol=6); for(i in 1:Iterations) {
x=rnorm(Sample.Size); z=rnorm(Sample.Size)+x*IV.r
y=rnorm(Sample.Size)+x*DV.x.r+z*DV.z.r
y.predicted=x*lm(y~x+z)$coefficients[2]+z*lm(y~x+z)$coefficients[3]
bizarro.y.predicted=x*lm(y~x)$coefficients[2]+z*lm(y~z)$coefficients[2]
output[i,]=c(cor(y.predicted,y)^2,cor(bizarro.y.predicted,y)^2,
cor(y.predicted,y)^2>cor(bizarro.y.predicted,y)^2,cor(x,z),cor(x,y),cor(y,z))}
list(output=output,percent.of.predictions.improved=100*sum(output[,3])/Iterations,
mean.improvement=fisherz2r(mean(fisherz(output[,1])-fisherz(output[,2]))))}
# Wrapping the function in str( ) gives you the gist without filling your whole screen
str(simtestit())
N= IterationsnSample.Sizez = x +y = x + z +yxz
1y.predicted
2bizarro.y.predicted
outputIterationsR2121>2rxyzoutputsimtestit()str( )R21rpsych
R2R2IV.r) बड़ा है। चूँकि आप शायद अपने GLM फ़ंक्शन से अधिक परिचित हैं, जो मैं हूं (जो कि बिल्कुल भी नहीं है), आप शायद इस फ़ंक्शन को बदल सकते हैं या GLM भविष्यवाणियों की तुलना करने के लिए मूल विचार का उपयोग कर सकते हैं, हालांकि कई IVs जिन्हें आप बहुत अधिक परेशानी के बिना चाहते हैं। यह मानते हुए कि (या करता है) उसी तरह से बाहर निकलेगा, ऐसा प्रतीत होगा कि आपके दूसरे प्रश्न का मूल उत्तर शायद हाँ है, लेकिन आईवी कोवरी कितनी दृढ़ता से निर्भर करता है। आयोजित किए गए डेटा और मॉडल को फिट करने के लिए उपयोग किए गए डेटा के बीच नमूना त्रुटि में अंतर बाद के डेटासेट के भीतर इसकी पूर्वानुमान सटीकता में सुधार को रोक सकता है, क्योंकि फिर से, सुधार तब तक छोटा लगता है जब तक IV सहसंबंध मजबूत नहीं होते हैं (कम से कम, में केवल दो IVs के साथ अधिकतम बुनियादी मामला)।