अन्य उत्तरों पर पूरक करने की कोशिश कर रहा है ... फिशर जानकारी किस तरह की है? Loglikelihood फ़ंक्शन साथ प्रारंभ करें
, जो पैरामीटर स्थान लिए
फ़ंक्शन के रूप है। कुछ नियमितता स्थितियों की चर्चा करते हुए, हम यहाँ चर्चा नहीं करते हैं, हमारे पास
(हम यहां पैरामीटर के रूप में डॉट के रूप में पैरामीटर के संबंध में डेरिवेटिव लिखेंगे)। विचरण है फिशर जानकारी
θ θ ∈ Θ मैं ( θ ) = ई θ ( ˙ ℓ ( θ ) ) 2 = - ई θ ¨ ℓ ( θ ) θ ˙ ℓ ( θ ) = 0 ˙ ℓ ( θ )
ℓ ( θ ) = लॉगच( x ; θ )
θθ ∈ Θए∂∂θℓ ( θ ) = ईθℓ˙( Θ ) = 0मैं( Θ ) = ईθ( ℓ˙( Θ ) )2= - ईθℓ¨( θ )
अंतिम सूत्र दिखा रहा है कि यह loglikelihood फ़ंक्शन का (नकारात्मक) वक्रता है। एक प्रायः संभावना के समीकरण _ को हल करके _ की अधिकतम संभावना अनुमानक (mle) पाता है, जब फिशर स्कोर के विचरण के रूप में जानकारी देता है। बड़ी है, तो उस समीकरण का समाधान डेटा के प्रति बहुत संवेदनशील होगा, जिससे mle की उच्च परिशुद्धता की उम्मीद होगी। यह कम से कम asymptotically की पुष्टि की है, मीलों की asymptotic विचरण फिशर जानकारी का उलटा जा रहा है।
θℓ˙( Θ ) = 0ℓ˙( θ )
हम इसकी व्याख्या कैसे कर सकते हैं? नमूने से पैरामीटर बारे में संभावना जानकारी है । यह वास्तव में केवल एक सापेक्ष अर्थ में व्याख्या की जा सकती है, जैसे कि जब हम इसका उपयोग दो अलग-अलग संभावित मानों की संभावनाओं की तुलना करने के लिए करते हैं संभावना अनुपात परीक्षण । Loglikelihood के परिवर्तन की दर स्कोर फ़ंक्शन हमें बताती है कि संभावना कितनी तेज़ी से बदलती है, और इसका भिन्नता नमूना से नमूना के लिए, किसी दिए गए पैरामिटर पर कितना भिन्न होता है। मान, । समीकरण (जो वास्तव में आश्चर्यजनक है!)
θ ℓ ( θ 0 ) - ℓ ( θ 1 ) ˙ ℓ ( θ ) मैं ( θ ) θ 0 मैं ( θ ) = - ई θ ¨ ℓ ( θ ) θ 0 ˙ ℓ ( θ ) | θ = θ 0 θ θ 0ℓ ( θ )θℓ ( θ0) - ℓ ( θ1)ℓ˙( θ )मैं( θ )θ0
मैं( Θ ) = - ईθℓ¨( θ )
हमें बताता है कि किसी दिए गए पैरामीटर मान के लिए सूचना (संभावना) में परिवर्तनशीलता के बीच एक संबंध (समानता) है , उस पैरामीटर मान के लिए और फ़ंक्शन की वक्रता। यह ths स्टैटिस्टिक की परिवर्तनशीलता (विचरण) और एक समानता है जब हम कुछ अंतराल में पैरामीटर भिन्न होते हैं, तो अपेक्षित परिवर्तन (समान डेटा के लिए)। यह वास्तव में अजीब, आश्चर्यजनक और शक्तिशाली दोनों है!
θ0ℓ˙( Θ ) |θ = θ0θθ0
तो संभावना फ़ंक्शन क्या है? हम आम तौर पर सांख्यिकीय मॉडल के बारे में सोच डेटा के लिए संभाव्यता वितरण के एक परिवार के रूप में , पैरामीटर द्वारा अनुक्रमित कुछ पैरामीटर अंतरिक्ष में तत्व । हम इस मॉडल को सच होने के रूप में सोचते हैं यदि कुछ मान जैसे कि डेटा वास्तव में प्रायिकता वितरण । तो हम एक सच मॉडल datagenerating प्रायिकता वितरण imbedding द्वारा एक सांख्यिकीय मॉडल प्राप्त करते हैंx θ Θ θ 0 ∈ Θ x च ( एक्स , θ 0 ) च ( एक्स , θ 0 ){ च( एक्स , θ ) , θ ∈ Θ }एक्सθΘθ0∈ Θएक्सच( x ; θ0)च( x ; θ0)संभावना वितरण के एक परिवार में। लेकिन, यह स्पष्ट है कि इस तरह के एक imbedding कई अलग अलग तरीकों से किया जा सकता है, और इस तरह के प्रत्येक imbedding एक "सच" मॉडल होगा, और वे अलग-अलग संभावना कार्य देंगे। और, इस तरह के एक imbedding के बिना, कोई संभावना समारोह नहीं है। ऐसा लगता है कि हमें वास्तव में कुछ मदद की ज़रूरत है, कुछ सिद्धांतों को बुद्धिमानी से कैसे चुनना है!
अच्छा तो इसका क्या मतलब है? इसका मतलब यह है कि संभावना समारोह की पसंद हमें बताती है कि हम कैसे डेटा को बदलने की उम्मीद करेंगे, अगर सच्चाई थोड़ी बदल गई। लेकिन, यह वास्तव में डेटा द्वारा सत्यापित नहीं किया जा सकता है, क्योंकि डेटा केवल सच्चे मॉडल फ़ंक्शन बारे में जानकारी देता है जो वास्तव में डेटा उत्पन्न करता है, और चुना मॉडल में अन्य सभी तत्वों के बारे में कुछ भी नहीं। इस तरह हम देखते हैं कि संभावना फ़ंक्शन की पसंद बायेसियन विश्लेषण में एक पसंद के विकल्प के समान है, यह विश्लेषण में गैर-डेटा जानकारी को इंजेक्ट करता है। आइए हम इसे एक सरल (कुछ हद तक कृत्रिम) उदाहरण में देखें, और विभिन्न तरीकों से मॉडल में imbedding के प्रभाव को देखें ।च ( एक्स , θ 0 )च( x ; θ0)च( x ; θ0)
आइए मान हैं कि रूप में iid हैं । तो, यह सच है, डेटा-जनरेटिंग वितरण। अब, हम इसे एक मॉडल में दो अलग-अलग तरीकों से एम्बेड करते हैं, मॉडल A और मॉडल B.
आप इस मेल को लिए जाँच सकते हैं । एन ( μ = 10 , σ 2 = 1 )एक्स1, ... , एक्सnएन( μ = 10 , σ2= 1 )μ = 10
A:X1,…,Xn iid N(μ,σ2=1),μ∈RB:X1,…,Xn iid N(μ,μ/10),μ>0
μ=10
Loglikelihood फ़ंक्शंस
ℓA(μ)=−n2log(2π)−12∑i(xi−μ)2ℓB(μ)=−n2log(2π)−n2log(μ/10)−102∑i(xi−μ)2μ
स्कोर फ़ंक्शंस: (loglikelihood डेरिवेटिव):
और वक्रता
तो, फिशर जानकारी वास्तव में इम्बेडिंग पर निर्भर करती है। अब, हम फिशर सूचना की सही मान ,
तो फिशर पैरामीटर के बारे में जानकारी मॉडल बी में कुछ बड़ा है। ¨ ℓ एक(μ)=-n
ℓ˙A(μ)=n(x¯−μ)ℓ˙B(μ)=−n2μ−102∑i(xiμ)2−15n
μ=10IA(μ=10)=n,ℓ¨A(μ)=−nℓ¨B(μ)=n2μ2+102∑i2x2iμ3
μ=10IA(μ=10)=n,IB(μ=10)=n⋅(1200+20202000)>n
यह दर्शाता है कि, कुछ अर्थों में, फिशर जानकारी हमें बताती है कि मॉडल परिवार में इम्बेडिंग द्वारा पोस्ट किए गए तरीके से गवर्निंग पैरामीटर बदल जाने पर पैरामीटर के बारे में डेटा से सूचना कितनी तेजी से बदल गई होगी । मॉडल बी में उच्च जानकारी की व्याख्या यह है कि हमारा मॉडल परिवार बी यह बताता है कि यदि उम्मीद बढ़ जाती, तो विचरण भी बढ़ जाता । ताकि, मॉडल बी के तहत, नमूना विचलन भी बारे में जानकारी ले जाएगा , जो यह मॉडल ए के तहत नहीं करेगा।μ
साथ ही, यह उदाहरण बताता है कि मॉडल परिवारों के निर्माण में हमारी मदद करने के लिए हमें वास्तव में कुछ सिद्धांत की आवश्यकता है।