अवशिष्ट कैसे अंतर्निहित गड़बड़ी से संबंधित हैं?


9

कम से कम वर्गों की विधि में हम मॉडल में अज्ञात मापदंडों का अनुमान लगाना चाहते हैं:

Yजे=α+βएक्सजे+εजे(जे=1 ...n)

एक बार जब हम ऐसा कर लेते हैं (कुछ देखे गए मूल्यों के लिए), तो हमें फिट होने वाली प्रतिगमन लाइन मिल जाती है:

Yजे=α^+β^एक्स+जे(जे=1,n)

अब स्पष्ट रूप से हम कुछ भूखंडों की जांच करना चाहते हैं ताकि यह सुनिश्चित किया जा सके कि मान्यताओं को पूरा किया गया है। मान लीजिए कि आप समरूपता के लिए जाँच करना चाहते हैं, हालाँकि, ऐसा करने के लिए हम वास्तव में अवशिष्टों की जाँच कर रहे हैं । मान लें कि आप अवशिष्ट बनाम अनुमानित मूल्यों की साजिश की जांच करते हैं, अगर यह हमें दिखाता है कि विषमता स्पष्ट है, तो यह गड़बड़ी शब्द से कैसे संबंधित है ? क्या अवशिष्ट में विषमलैंगिकता अशांति की दृष्टि से विषमता का अर्थ है? जेεजे

जवाबों:


3

इसके बारे में सोचने का सबसे सरल तरीका है कि आपके कच्चे अवशेष (जे=yजे-y^जे) इसी गड़बड़ी का अनुमान है (ε^j=ej)। हालांकि, कुछ अतिरिक्त जटिलताएं हैं। उदाहरण के लिए, हालांकि हम मानक ओएलएस मॉडल में मान रहे हैं कि त्रुटियां / गड़बड़ी स्वतंत्र हैं, अवशिष्ट सभी नहीं हो सकते। सामान्य तौर पर, केवलNp1 अवशिष्ट स्वतंत्र हो सकते हैं क्योंकि आपने उपयोग किया है p1 माध्य मॉडल और अवशिष्टों का आकलन करने में स्वतंत्रता की डिग्री विवश हैं 0। इसके अलावा, कच्चे अवशेषों का मानक विचलन वास्तव में स्थिर नहीं है। सामान्य तौर पर, प्रतिगमन रेखा को इस तरह से फिट किया जाता है कि यह अधिक से अधिक उत्तोलन के साथ उन बिंदुओं के औसत के करीब होगा। परिणामस्वरूप, उन बिंदुओं के लिए अवशिष्टों का मानक विचलन कम उत्तोलन बिंदुओं की तुलना में छोटा होता है। (इस पर और अधिक जानकारी के लिए, यह यहां दिए गए उत्तरों को पढ़ने में मदद कर सकता है: प्लॉट की व्याख्या करना। lm () , और / या यहां: बाइनरी / द्विस्वभाव स्वतंत्र रैखिक भविष्यवाणियों के लिए अवशिष्ट विश्लेषण कैसे करें? )


3
स्पष्ट करने के लिए, अधिकांश Np-1 अवशिष्ट स्वतंत्र हो सकते हैं, लेकिन आमतौर पर वे सभी सहसंबद्ध होते हैं; इसके बजाय, उनके रैखिक परिवर्तन हैं जिनमें एनपी -1 स्वतंत्र घटक हो सकते हैं।
Glen_b -Reinstate मोनिका

@ गलेन_ बी, अच्छी बात है।
गंग -

8

बीच के रिश्ते ε^ तथा ε है:

ε^=(IH)ε

कहाँ पे Hटोपी मैट्रिक्स, है X(XTX)1XT

जो कहना है ε^मैं सभी त्रुटियों का एक रैखिक संयोजन है, लेकिन आम तौर पर अधिकांश भार इस पर पड़ता है मैं-तब एक।

यहाँ एक उदाहरण है, carsR में सेट किए गए डेटा का उपयोग करके बैंगनी में चिह्नित बिंदु पर विचार करें:

यहाँ छवि विवरण दर्ज करें

चलो इसे बिंदु कहते हैं मैं। अवशिष्ट,ε^मैं0.98εमैं+Σजेमैंwजेεजे, जहां wजे अन्य त्रुटियों के लिए -0.02 के क्षेत्र में हैं:

यहाँ छवि विवरण दर्ज करें

हम इसे फिर से लिख सकते हैं:

ε^मैं0.98εमैं+ηमैं

या अधिक आम तौर पर

ε^मैं=(1-मैंमैं)εमैं+ηमैं

कहाँ पे मैंमैं है मैं-तथा विकर्ण तत्व एच। इसी तरह,wजेऊपर हैं मैंजे

यदि त्रुटियां आईआईडी हैं एन(0,σ2) तब इस उदाहरण में, उन अन्य त्रुटियों की भारित राशि में लगभग 1/7 वें के अनुरूप एक मानक विचलन होगा, जिसमें त्रुटि की त्रुटि मैंइसके अवशिष्ट पर वें अवलोकन।

जो कहना है, अच्छी तरह से व्यवहार किए गए रजिस्टरों में, अवशिष्टों को ज्यादातर त्रुटि शब्द के अप्रमाणित शोर अनुमान के समान माना जा सकता है। जैसा कि हम केंद्र से आगे बिंदुओं पर विचार करते हैं, चीजें कुछ हद तक कम काम करती हैं (अवशिष्ट त्रुटि पर कम भारित हो जाता है और अन्य त्रुटियों पर भार भी कम हो जाता है)।

कई मापदंडों के साथ, या साथ एक्सइतनी अच्छी तरह से वितरित नहीं है, अवशिष्ट त्रुटियों की तरह बहुत कम हो सकते हैं। आप कुछ उदाहरणों को आज़माना पसंद कर सकते हैं।


2
यह सही तरीका है। इसके अतिरिक्त जो चाहिए वह एक तर्क है जिसके विकर्ण तत्व हैंएचआम तौर पर "छोटे" होते हैं। यह दिखाते हुए बनाया गया है कि ट्रेस स्वतंत्र चर की संख्या के बराबर है (अवरोधन, यदि कोई हो तो) - जो इस तथ्य से तत्काल है कि यह एक प्रक्षेपण मैट्रिक्स है। ध्यान दें कि यह परिणाम व्यक्ति पर किसी भी वितरण मान्यताओं से स्वतंत्र हैεमैं: उन्हें नॉर्मल होने की जरूरत नहीं है। यह किसी भी वास्तविक सूत्र के लिए स्वतंत्र हैएच; यह आयामों की गिनती का परिणाम है।
whuber

एक और परिस्थिति नहीं होगी जिसमें अवशिष्ट बहुत कम हो सकते हैं जैसे कि त्रुटियों की संख्या nछोटा है? आमतौर पर जैसा कि @whuber इस तथ्य को बताता है कि का निशानएच स्वतंत्र चर की संख्या के बराबर है इसका अर्थ है कि इसके विकर्ण तत्व छोटे हैं, लेकिन यह जरूरी नहीं कि संख्या इतनी ही हो nउन तत्वों में स्वयं छोटा है।
एडम बैली

@AdamBailey ज़रूर ऐसा होता है जब n छोटा है ... लेकिन ऐसा इसलिए है पी/n भले ही अपेक्षाकृत बड़ा है पीकेवल 1 या 2. है
Glen_b -Reinstate Monica
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.