यह उत्तर अनुमानितता के सत्यापन पर जोर देता है। न्यूनतम विचरण संपत्ति मेरे द्वितीयक विचार की है।
आरंभ करने के लिए, एक रेखीय मॉडल के मैट्रिक्स रूप के संदर्भ में जानकारी को निम्नानुसार संक्षेपित करें:
जहां (अनुमान पर चर्चा करने के लिए, गोलाकार धारणा आवश्यक नहीं है। लेकिन गॉस-मार्कोव संपत्ति पर चर्चा करने के लिए। हमें _ को मानने की आवश्यकता है )। ई(
Y:=⎡⎣⎢⎢⎢Y1Y2Y3Y4⎤⎦⎥⎥⎥=⎡⎣⎢⎢⎢1111010−1−1−1−1−1⎤⎦⎥⎥⎥⎡⎣⎢θ1θ2θ3⎤⎦⎥+⎡⎣⎢⎢⎢ε1ε2ε3ε4⎤⎦⎥⎥⎥:=Xβ+ε,(1)
εE(ε)=0,Var(ε)=σ2Iε
यदि डिज़ाइन मैट्रिक्स पूर्ण रैंक का है, तो मूल पैरामीटर एक अद्वितीय न्यूनतम-वर्ग अनुमान । नतीजतन, किसी भी पैरामीटर , रैखिक कार्य के रूप में परिभाषित के भावना है कि यह स्पष्ट रूप से कम से कम वर्गों के माध्यम से डेटा से अनुमान लगाया जा सकता में बहुमूल्य है का अनुमान है के रूप में ।बीटा बीटा = ( एक्स ' एक्स ) - 1 एक्स ' Y φ φ ( बीटा ) बीटा बीटा φ = पी ' बीटाXββ^=(X′X)−1X′Yϕϕ(β)ββ^ϕ^=p′β^
सूक्ष्मता तब उत्पन्न होती है जब पूर्ण रैंक का नहीं होता है। पूरी तरह से चर्चा करने के लिए, हम पहले कुछ नोटिफिकेशन और शर्तों को ठीक करते हैं (मैं कोऑर्डिनेट-फ्री एप्रोच टू लिनियर मॉडल्स , सेक्शन 4.8 के कन्वेंशन का पालन करता हूं । कुछ शर्तें अनावश्यक रूप से तकनीकी लगती हैं)। इसके अलावा, चर्चा सामान्य रेखीय मॉडल पर साथ और ।वाई = एक्स बीटा + ε एक्स ∈ आर एन × कश्मीर बीटा ∈ आर कश्मीरXY=Xβ+εX∈Rn×kβ∈Rk
- एक प्रतिगमन कई गुना मतलब वैक्टर के संग्रह के रूप है भिन्न होता है से अधिक :
आर कश्मीर एम = { एक्स बीटा : बीटा ∈ आर कश्मीर } ।βRk
M={Xβ:β∈Rk}.
- एक पैरामीट्रिक फंक्शनल एक फंक्शनल कार्यात्मक है ,
बीटा φ ( बीटा ) = पी ' बीटा = पी 1 बीटा 1 + ⋯ + पी कश्मीर बीटा कश्मीर ।ϕ=ϕ(β)β
ϕ(β)=p′β=p1β1+⋯+pkβk.
जैसा कि ऊपर उल्लेख किया गया है, जब , हर पैरामीट्रिक फंक्शनल अनुमानित नहीं है। लेकिन, रुकिए, तकनीकी रूप से अनुमानित शब्द की परिभाषा क्या है ? थोड़ा रैखिक बीजगणित को परेशान किए बिना एक स्पष्ट परिभाषा देना मुश्किल लगता है। एक परिभाषा, जो मुझे लगता है कि सबसे अधिक सहज है, इस प्रकार है (उसी उपर्युक्त संदर्भ से):ϕ ( β )rank(X)<kϕ(β)
परिभाषा 1. एक पैरामीट्रिक फंक्शनलअनुमान लगाने योग्य है अगर यह विशिष्ट रूप सेद्वारा इस अर्थ मेंनिर्धारित किया जाताहै किजब भीसंतुष्ट।एक्स बीटा φ ( बीटा 1 ) = φ ( बीटा 2 ) बीटा 1 , बीटा 2 ∈ आर कश्मीर एक्स बीटा 1 = एक्स बीटा 2ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2∈RkXβ1=Xβ2
व्याख्या। उपरोक्त परिभाषा बताती है कि प्रतिगमन से मैपिंग से के पैरामीटर स्पेस में कई गुना वन-टू-वन होना चाहिए, जिसकी गारंटी तब होती है जब (यानी, जब ही एक है- एक को)। जब , हम जानते हैं कि वहाँ मौजूद है जैसे कि । प्रभाव में उपरोक्त अनुमानित परिभाषा उन संरचनात्मक-कमी वाले पैरामीट्रिक क्रियाओं को नियमबद्ध करती है जो पर समान मूल्य के साथ भी अलग-अलग मूल्यों का परिणाम देते हैं , जो स्वाभाविक रूप से समझ में नहीं आते हैं। दूसरी ओर, एक अनुमानित पैरामीट्रिक कार्यात्मकφ रैंक ( एक्स ) = कश्मीर एक्स रैंक ( एक्स ) < कश्मीर बीटा 1 ≠ बीटा 2 एक्स बीटा 1 = एक्स बीटा 2 एम φ ( ⋅ ) φ ( बीटा 1 ) = φ ( बीटा 2 ) बीटा 1 ≠ बीटा 2 एक्स बीटा 1 = एक्स β 2Mϕrank(X)=kXrank(X)<kβ1≠β2Xβ1=Xβ2Mϕ(⋅)अनुमति नहीं है मामले के साथ , जब तक शर्त के रूप में पूरी हो जाती है।ϕ(β1)=ϕ(β2)β1≠β2Xβ1=Xβ2
एक ही संदर्भ में दिए गए पैरामीट्रिक कार्यात्मक की अनुमानितता की जांच करने के लिए अन्य समकक्ष स्थितियां हैं, प्रस्ताव 8.4।
इस तरह के एक क्रिया पृष्ठभूमि परिचय के बाद, चलो अपने सवाल पर वापस आते हैं।
ए ही इस कारण से गैर-अनुमान्य है कि , जो कि साथ को । यद्यपि उपरोक्त परिभाषा स्केलर फ़ंक्शंस के लिए दी गई है, यह वेक्टर-मूल्यवान फ़ंक्शंस के लिए आसानी से सामान्यीकृत है।βrank(X)<3Xβ1=Xβ2β1≠β2
B. गैर-अनुमानित है। विचार करने के लिए, और , जो लेकिन ।ϕ1(β)=θ1+θ3=(1,0,1)′ββ1=(0,1,0)′β2=(1,1,1)′Xβ1=Xβ2ϕ1(β1)=0+0=0≠ϕ1(β2)=1+1=2
C. अनुमान है। क्योंकि तुच्छता से , अर्थात, ।ϕ2(β)=θ1−θ3=(1,0,−1)′βXβ1=Xβ2θ(1)1−θ(1)3=θ(2)1−θ(2)3ϕ2(β1)=ϕ2(β2)
डी है भी बहुमूल्य । से व्युत्पत्ति को भी तुच्छ है।ϕ3(β)=θ2=(0,1,0)′βXβ1=Xβ2ϕ3(β1)=ϕ3(β2)
अनुमान सत्यापित होने के बाद, एक प्रमेय है (प्रस्ताव 8.16, उसी संदर्भ) में दावा है कि गॉस-मार्कोव की संपत्ति । उस प्रमेय के आधार पर, विकल्प C का दूसरा भाग गलत है। सबसे अच्छा रैखिक निष्पक्ष अनुमान नीचे दिए गए प्रमेय द्वारा ।ϕ(β)Y¯=(Y1+Y2+Y3+Y4)/4
प्रमेय। Letएक अनुमानी पैरामीट्रिक क्रियाशील होना चाहिए, फिर इसका सबसे अच्छा रैखिक निष्पक्ष अनुमान (उर्फ, गॉस-मार्कोव अनुमान)किसी भीलिएसामान्य समीकरणों।ϕ(β)=p′βϕ(β^)β^X′Xβ^=X′Y
प्रमाण इस प्रकार है:
प्रमाण। सीधी गणना से पता चलता है कि सामान्य समीकरण
जो, सरलीकरण के बाद, is
अर्थात, ।
⎡⎣⎢40−4020−404⎤⎦⎥β^=⎡⎣⎢10−111−110−11−1−1⎤⎦⎥Y,
⎡⎣⎢⎢ϕ(β^)θ^2/2−ϕ(β^)⎤⎦⎥⎥=⎡⎣⎢Y¯(Y2−Y4)/4−Y¯⎤⎦⎥,
ϕ(β^)=Y¯
इसलिए, विकल्प D एकमात्र सही उत्तर है।
परिशिष्ट: अनुमान और पहचान की क्षमता
जब मैं स्कूल में था, एक प्रोफेसर ने संक्षेप में उल्लेख किया कि पैरामीट्रिक फंक्शनल का अनुमान मॉडल की पहचान से मेल खाता है। मैंने इसके लिए यह दावा किया। हालांकि, समतुल्यता को अधिक स्पष्ट रूप से वर्तनी की आवश्यकता है।ϕ
एसी डेविसन के मोनोग्राफ सांख्यिकीय मॉडल p.144 के अनुसार,
परिभाषा 2. एक पैरामीट्रिक मॉडल जिसमें प्रत्येक पैरामीटरएक अलग वितरण उत्पन्न करता है जिसे पहचान योग्य कहा जाता है ।θ
रैखिक मॉडल , गोलाकार स्थिति ध्यान दिए बिना , इसे रूप में सुधार किया जा सकता है।
(1)Var(ε)=σ2I
E[Y]=Xβ,β∈Rk.(2)
यह इतना सरल मॉडल है कि हमने केवल प्रतिक्रिया वेक्टर के पहले क्षण के रूप को निर्दिष्ट किया है । जब , मॉडल से पहचाने जाने योग्य है, जब से तात्पर्य (मूल वितरण में शब्द "वितरण" से स्वाभाविक रूप से "मतलब" तक कम हो जाता है) "अंडर मॉडल ।)।Yrank(X)=k(2)β1≠β2Xβ1≠Xβ2(2)
अब मान लें कि और एक दिया पैरामीट्रिक फंक्शनल , हम परिभाषा 1 और परिभाषा 2 को कैसे सामंजस्य करते हैं ?rank(X)<kϕ(β)=p′β
खैर, नोटेशन और शब्दों में हेरफेर करके, हम यह दिखा सकते हैं कि ("सबूत" बल्कि तुच्छ है) की अनुमान्यता उस मॉडल के बराबर है पहचान योग्य है जब यह पैरामीटर के साथ (डिज़ाइन मैट्रिक्स तदनुसार परिवर्तित होने की संभावना है)। साबित करने के लिए, मान लें कि अनुमान योग्य है ताकि तात्पर्य , परिभाषा के अनुसार, यह , इसलिए मॉडल की पहचान की जा सकती है जब साथ अनुक्रमण करता है । इसके विपरीत, मान लीजिए कि मॉडल पहचान योग्य है ताकिϕ(β)(2)ϕ=ϕ(β)=p′βXϕ(β)Xβ1=Xβ2p′β1=p′β2ϕ1=ϕ2(3)ϕ(3)Xβ1=Xβ2 अर्थ है , जो तुच्छ ।ϕ1=ϕ2ϕ1(β)=ϕ2(β)
सहज रूप से, जब को कम-रैंक किया जाता है, तो वाला मॉडल अतिरेक (बहुत अधिक पैरामीटर) पैरामीटर होता है, इसलिए एक गैर-निरर्थक निचला-आयामी पुनर्संरचना (जिसमें रैखिक कार्यों का संग्रह शामिल हो सकता है) संभव है। ऐसा नया प्रतिनिधित्व कब संभव है? कुंजी अनुमान है।Xβ
उपरोक्त कथनों को स्पष्ट करने के लिए, आइए अपने उदाहरण पर पुनर्विचार करें। हमने पैरामीट्रिक फ़ंक्शंस को सत्यापित किया है और हैं। इसलिए, हम reparametrized पैरामीटर के संदर्भ में मॉडल को फिर से लिख सकते हैं रूप में इस प्रकार
ϕ2(β)=θ1−θ3ϕ3(β)=θ2(1)(ϕ2,ϕ3)′
E[Y]=⎡⎣⎢⎢⎢1111010−1⎤⎦⎥⎥⎥[ϕ2ϕ3]=X~γ.
स्पष्ट रूप से, चूंकि पूर्ण-रैंक है, इसलिए नए पैरामीटर साथ मॉडल पहचान योग्य है।X~γ
self-study
टैग या किसी के साथ आते हैं और अपने प्रश्न बंद हो जाएगा।