मैं फार्मूला वार को रेखांकित करने वाले अंतर्ज्ञान को विकसित करने की दिशा में एक अलग दृष्टिकोण लूंगा। कई प्रतिगमन मॉडल के लिए अंतर्ज्ञान विकसित करते समय, यह द्विभाजित रैखिक प्रतिगमन मॉडल,अर्थातपर विचार करने के लिए सहायक है। ,Yमैं=α+βएक्समैं+εमैं,Varβ^=σ2(X′X)−1α + β एक्स मैं अक्सर करने के लिए नियतात्मक योगदान कहा जाता है y मैं , और ε मैं स्टोकेस्टिक योगदान कहा जाता है। नमूना साधन से विचलन के संदर्भ में व्यक्त ( ˉ एक्स , ˉ y ) , इस मॉडल के रूप में भी लिखा जा सकता है ( y मैं - ˉ y ) = β ( एक्स मैं - ˉ एक्स ) + ( ε
yi=α+βxi+εi,i=1,…,n.
α+βxiyiεi(x¯,y¯)(yi−y¯)=β(xi−x¯)+(εi−ε¯),i=1,…,n.
मदद करने के लिए अंतर्ज्ञान का विकास, हम मान लेंगे कि सबसे सरल गॉस-मार्कोव मान्यताओं संतुष्ट हैं: nonstochastic, Σ n मैं = 1 ( एक्स मैं - ˉ एक्स ) 2 > 0 सभी के लिए n , और ε मैं ~ आईआईडी ( 0 , σ 2 ) सभी के लिए मैं = 1 , ... , एन । जैसा कि आप पहले से ही अच्छी तरह से जानते हैं, ये स्थितियां गारंटी देती हैं कि वारxi∑ni=1(xi−x¯)2>0nεi∼iid(0,σ2)i=1,…,n जहां वार
Varβ^=1nσ2(Varx)−1,
के नमूना प्रसरण है
एक्स । शब्दों में, इस सूत्र तीन दावे करती है: "का विचरण
β विपरीत रूप से नमूने का आकार के लिए आनुपातिक है
एन , यह सीधे के विचरण के लिए आनुपातिक है
ε , और यह विपरीत रूप से विचरण के लिए आनुपातिक है
एक्स ।"
Varxxβ^nεx
क्यों नमूना आकार दोगुना करना चाहिए, paribus Ceteris , कारण का विचरण β छमाही में कटौती होने के लिए? इस परिणाम परिचित आईआईडी धारणा से जुड़ा हुआ है के लिए लागू किया ε : चूंकि अलग-अलग त्रुटियों आईआईडी माना जाता है, प्रत्येक अवलोकन व्यवहार किया जाना चाहिए पूर्व पूर्व समान रूप से जानकारीपूर्ण होने के रूप में। और, अवलोकनों की संख्या को दोगुना करने से उन मापदंडों के बारे में जानकारी की मात्रा दोगुनी हो जाती है जो x और y के बीच (ग्रहण किए गए रैखिक) संबंध का वर्णन करते हैं । आधे से अधिक मापदंडों के बारे में अनिश्चितता के बारे में दोगुनी जानकारी होने से कटौती होती है। इसी तरह, यह दोगुना होने के रूप में किसी के अंतर्ज्ञान को विकसित करने के लिए सीधा होना चाहिएβ^εxy भी की विचरण डबल्स β ।σ2β^
आइए बारी है, तो, अपने मुख्य सवाल है, का दावा है कि के विचरण के लिए अंतर्ज्ञान विकसित करने के बारे में है जो करने के लिए β है विपरीत आनुपातिक के विचरण करने के लिए एक्स । धारणाओं को औपचारिक रूप देने के लिए, आइए अब हम दो अलग-अलग द्विभाजित रैखिक प्रतिगमन मॉडल पर विचार करें, जिन्हें मॉडल ( 1 ) और मॉडल ( 2 ) कहा जाता है । हम मान लेंगे कि दोनों मॉडलों गॉस-मार्कोव प्रमेय का सबसे सरल रूप की मान्यताओं को संतुष्ट और मॉडल की ठीक उसी मूल्यों का हिस्सा है कि α , β , एन , और σ 2 । इन मान्यताओं के तहत, यह दिखाना आसान है कि ईβ^x(1)(2)αβnσ2; शब्दों में, दोनों अनुमानक निष्पक्ष हैं। महत्वपूर्ण बात है, हम भी समझेंगे कि जबकि ˉ एक्स ( 1 ) = ˉ एक्स ( 2 ) = ˉ एक्स ,वारEβ^(1)=Eβ^(2)=βx¯(1)=x¯(2)=x¯ । व्यापकता के नुकसान के बिना, मान लें कि वारVarx(1)≠Varx(2)Varx(1)>Varx(2)β^β^(1)β^(2)βVarβ^(k)=1nσ2/Varx(k))k=1,2Varx(1)>Varx(2) by assumption, it follows that Varβ^(1)<Varβ^(2). What, then, is the intuition behind this result?
Because by assumption Varx(1)>Varx(2), on average each x(1)i will be farther away from x¯ than is the case, on average, for x(2)i. Let us denote the expected average absolute difference between xi and x¯ by dx. The assumption that Varx(1)>Varx(2) implies that d(1)x>d(2)x. The bivariate linear regression model, expressed in deviations from means, states that dy=βd(1)x for Model (1) and dy=βd(2)x for Model (2). If β≠0, this means that the deterministic component of Model (1), βd(1)x, has a greater influence on dy than does the deterministic component of Model (2), βd(2)x. Recall that the both models are assumed to satisfy the Gauss-Markov assumptions, that the error variances are the same in both models, and that β(1)=β(2)=β. Since Model (1) imparts more information about the contribution of the deterministic component of y than does Model (2), it follows that the precision with which the deterministic contribution can be estimated is greater for Model (1) than is the case for Model (2). The converse of greater precision is a lower variance of the point estimate of β.
It is reasonably straightforward to generalize the intuition obtained from studying the simple regression model to the general multiple linear regression model. The main complication is that instead of comparing scalar variances, it is necessary to compare the "size" of variance-covariance matrices. Having a good working knowledge of determinants, traces and eigenvalues of real symmetric matrices comes in very handy at this point :-)