मैं फिशर जानकारी के साथ सहज नहीं हूं, यह क्या उपाय करता है और यह कैसे सहायक है। इसके अलावा, यह क्रैमर-राव के साथ संबंध मेरे लिए स्पष्ट नहीं है।
क्या कोई इन अवधारणाओं की सहज व्याख्या दे सकता है?
मैं फिशर जानकारी के साथ सहज नहीं हूं, यह क्या उपाय करता है और यह कैसे सहायक है। इसके अलावा, यह क्रैमर-राव के साथ संबंध मेरे लिए स्पष्ट नहीं है।
क्या कोई इन अवधारणाओं की सहज व्याख्या दे सकता है?
जवाबों:
यहां मैं समझाता हूं कि अधिकतम संभावना अनुमानक के विषम संस्करण को क्रैमर-राव लोअर बाउंड क्यों है। उम्मीद है कि यह फिशर जानकारी की प्रासंगिकता के रूप में कुछ अंतर्दृष्टि प्रदान करेगा।
सांख्यिकीय निष्कर्ष एक संभावना फ़ंक्शन which ) के उपयोग से बढ़ता है जो आप डेटा से बनाते हैं । बिंदु अनुमान θ मूल्य जो अधिकतम है एल ( θ ) । आकलनकर्ता θ एक यादृच्छिक चर रहा है, लेकिन यह एहसास है कि मदद करता है संभावना समारोह एल ( θ ) एक "यादृच्छिक वक्र" है।
यहाँ हम एक वितरण से तैयार आईआईडी डेटा मान , और हम संभावना को परिभाषित एल ( θ ) = 1
पैरामीटर गुण है कि यह "सही" संभावना है, के मान को अधिकतम करता है ई एल ( θ ) । हालांकि, "मनाया" संभावना समारोह एल ( θ ) जो डेटा से निर्माण किया है थोड़ा "बंद" सच संभावना से है। फिर भी जैसा कि आप कल्पना कर सकते हैं, जैसा कि नमूना आकार बढ़ता है, "मनाया गया" संभावना वास्तविक संभावना वक्र के आकार में परिवर्तित हो जाती है। वही पैरामीटर के संबंध में स्कोर के व्युत्पन्न पर लागू होता है, स्कोर फ़ंक्शन lik L / der der । (लंबी कहानी छोटी, फिशर जानकारी निर्धारित करती है कि कितनी जल्दी मनाया गया स्कोर फ़ंक्शन वास्तविक स्कोर फ़ंक्शन के आकार में परिवर्तित होता है।)
एक बड़े नमूना आकार में, हम मानते हैं कि हमारे अधिकतम संभावना सुविधा θ बहुत करीब है θ । हम चारों ओर एक छोटा सा पड़ोस में ज़ूम θ और θ ताकि संभावना समारोह "स्थानीय रूप से द्विघात" है।
θ बिंदु है जिस पर है स्कोर समारोह ∂ एल / ∂ θ मूल काटती है। इस छोटे से क्षेत्र में, हम एक के रूप में स्कोर समारोह का इलाज लाइन , ढाल के साथ एक एक और यादृच्छिक अवरोधन ख पर θ । हम समीकरण से जानते हैं कि एक पंक्ति के लिए
या
MLE अनुमानक की संगति से, हम जानते हैं कि
सीमा में।
इसलिए, asymptotically
यह पता चला है कि ढलान अवरोधन की तुलना में बहुत कम भिन्न होता है, और स्पर्शोन्मुख रूप से, हम स्कोर फ़ंक्शन को around के आसपास एक छोटे से पड़ोस में निरंतर ढलान होने के रूप में । इस प्रकार हम लिख सकते हैं
तो, और n V a r ( b ) के मूल्य क्या हैं ? यह पता चला है कि एक अद्भुत गणितीय संयोग के कारण, वे बहुत ही मात्रा में हैं (modulo a minus sign), फिशर जानकारी।
इस प्रकार,
asymptotically: क्रेमर-राव निचली सीमा। (यह दिखाते हुए कि1/I(θ)एक निष्पक्ष अनुमानक के विचरण पर एक निचली सीमा है, एक अलग बात है)
फिशर जानकारी को समझने का एक तरीका निम्नलिखित परिभाषा के अनुसार है:
फिशर सूचना इस तरह से जब भी घनत्व लिखा जा सकता है दो बार जो विभेदक है। नमूना अंतरिक्ष तो एक्स पैरामीटर पर निर्भर नहीं करता θ , तो हम बताते हैं कि पहले कार्यकाल शून्य है (अंतर के दोनों ओर लाइबनिट्स अभिन्न सूत्र का उपयोग कर सकते हैं ∫ एक्स च ( एक्स | θ ) घ एक्स = 1 दो बार और आपको मिल शून्य), और दूसरा शब्द "मानक" परिभाषा है। मैं मामला तब उठाऊंगा जब पहला शब्द शून्य होगा। ऐसे मामले जब शून्य नहीं है, तो फ़िशर सूचनाओं को समझने के लिए बहुत अधिक उपयोग नहीं किया जाता है।
अब जब आप अधिकतम संभावना अनुमान लगाते हैं (यहां "नियमितता की स्थिति डालें")
और लिए हल करें । तो दूसरा व्युत्पन्न कहता है कि कितनी जल्दी ढाल बदल रहा है, और एक अर्थ में "कितना दूर" θ उपरोक्त समीकरण के दाहिने हाथ पक्ष में एक प्रशंसनीय परिवर्तन किए बिना MLE से प्रस्थान कर सकता है। एक और तरीका है जिसके बारे में आप सोच सकते हैं कि कागज पर "पहाड़" की कल्पना करना है - यह लॉग-लाइबिलिटी फ़ंक्शन है। ऊपर MLE समीकरण को हल करना आपको बताता है कि इस पर्वत का शिखर यादृच्छिक चर x के एक कार्य के रूप में स्थित है । दूसरी व्युत्पत्ति आपको बताती है कि पहाड़ कितना स्थिर है - जो एक मायने में आपको बताता है कि पहाड़ की चोटी को खोजना कितना आसान है। फिशर जानकारी चोटी की अपेक्षित स्थिरता लेने से आती है, और इसलिए इसमें "पूर्व-डेटा" व्याख्या का एक सा है।
एक चीज जो मुझे अभी भी उत्सुक लगती है, वह यह है कि इसकी लॉग-लाइबिलिटी कितनी स्थिर है और न ही इस संभावना के कुछ अन्य मोनोटोनिक फ़ंक्शन को कैसे रोकती है (शायद निर्णय सिद्धांत में "उचित" स्कोरिंग कार्यों से संबंधित है? या हो सकता है कि एन्ट्रापी के सुसंगत स्वयंसिद्ध हों? ?)।
और जब आप MLE के बारे में लॉग-लाइक का विस्तार करते हैं, तो:
यह सबसे सहज लेख है जिसे मैंने अब तक देखा है:
ईडन गार्डन में एडम और ईव की एक समानता द्वारा बाउंड को समझाया गया है, यह देखने के लिए कि सिक्का खाने के लिए कौन मिलता है और वे तब खुद से पूछते हैं कि उनके अनुमान में सटीकता के एक निश्चित स्तर को प्राप्त करने के लिए कितना बड़ा नमूना आवश्यक है, और वे फिर इस बाउंड की खोज ...
वास्तविकता के बारे में एक गहन संदेश के साथ अच्छी कहानी।
यद्यपि ऊपर दिए गए स्पष्टीकरण बहुत दिलचस्प हैं और मुझे उनके माध्यम से जाने में मज़ा आया है, मुझे लगता है कि क्रैमर-राव लोअर बाउंड की प्रकृति को ज्यामितीय दृष्टिकोण से सबसे अच्छा समझाया गया था। यह अंतर्ज्ञान सांख्यिकीय सिग्नल प्रोसेसिंग पर स्क्रैफ़ की पुस्तक के अध्याय 6 से एकाग्रता दीर्घवृत्त की अवधारणा का सारांश है ।