सहज कारण क्यों द्विपद की फिशर सूचना विपरीत आनुपातिक है


12

यह मेरे मन को भ्रमित करता है / करता है कि द्विपद का विचलन । समान रूप से, फिशर जानकारी समानुपाती होती है । इसका कारण क्या है? फिशर सूचना को पर कम क्यों किया जाता है ? यही कारण है, पर सबसे अधिक मुश्किल क्यों है ?1p(1p) p=0.5p=0.51p(1p)p=0.5p=0.5

प्रसंग:

मैं एक नमूना आकार कैलकुलेटर पर काम कर रहा हूं, और लिए सूत्र , आवश्यक नमूना आकार, का बढ़ता कारक , जो व्युत्पत्ति में एक भिन्नता का अनुमान है।पी ( 1 - पी )Np(1p)


3
एक के विचरण Bernoulli पैरामीटर के साथ यादृच्छिक चर है और द्विपद यादृच्छिक चर, का योग किया जा रहा है स्वतंत्र Bernoulli यादृच्छिक चर, विचरण है है, जो का योग है प्रसरण । के संबंध में क्यों पी ( 1 - पी ) , जनता के द्रव्यमान का केंद्र के बारे में निष्क्रियता के क्षण के रूप में विचरण पर विचार पी और 1 - पी में 1 और 0 क्रमशः। पी ( 1 - पी ) एन एन पी ( 1 - पी ) एनpp(1p)NNp(1p)N p(1p)p1p10
दिलीप सरवटे

हां, मैंने लिए आनुपातिक कहा , एन को अनदेखा करें । क्या आप अपने दूसरे भाग के बारे में विस्तार से बता सकते हैं, यह एक दिलचस्प परिप्रेक्ष्य की तरह लगता है। p(1p)N
Cam.Davidson.Pilon

जवाबों:


13

देखने के लिए, एक सहज तरीके से, कि विचरण को पर अधिकतम किया जाता है , p को 0.99 (मान। P = 0.01 ) के बराबर ले जाता है । फिर से एक नमूना एक्स ~ Bernoulli ( पी ) होने की संभावना कई शामिल होंगे 1 की (resp। 0 की) और बस कुछ ही 0 के (resp। 1 'रों)। वहाँ बहुत भिन्नता नहीं है।p=0.5p0.99p=0.01XBernoulli(p)1001


यह सच है। शायद जो मैं पूछ रहा हूं वह यह है कि फिशर सूचना को पर न्यूनतम क्यों किया जाता है ? p=0.5, यानी पर सबसे कठिन क्यों है ? मैं अपने प्रश्न को प्रतिबिंबित करने के लिए अपडेट करूंगा। p=0.5
Cam.Davidson.Pilon

3
फिर से एक बहुत ही सहज तरीके से: अधिक भिन्नता, जितनी अधिक जानकारी आपको चाहिए।
ओकराम

9

अनुमान के लिए "हार्ड" है , बीच में 'के साथ एक नमूना क्योंकि पी बीच के पास का एक व्यापक रेंज के साथ संगत है पी । सिरों के पास, यह इतना दूर नहीं हो सकता है - सिरों के "अवरोध" होने के कारण जिसके आगे p नहीं जा सकता है।pp^pp

मुझे लगता है कि अंतर्ज्ञान आसान है जब विचरण के संदर्भ में देखा जाता है।

एक द्विपद के विचरण के बारे में अंतर्ज्ञान बीच में बड़ा और छोर पर छोटा है, बल्कि सीधा है: समापन बिंदुओं के पास डेटा "फैल" के लिए जगह नहीं है। छोटे पर विचार करें - क्योंकि माध्य 0 के करीब है, भिन्नता बड़ी नहीं हो सकती है - डेटा औसत पी के लिए यह केवल माध्य से इतनी दूर हो सकता है।pp

चलो बर्नौली परीक्षणों की एक श्रृंखला में एक नमूना अनुपात के विचरण पर विचार करें। यहाँ । तो n नियत और अलग-अलग p धारण करने पर , 0 के पास p के लिए भिन्नता बहुत कम होती है :Var(p^)=p(1p)/nnpp

द्विपद नमूनों में नमूना अनुपात - यहां सिर्फ यादृच्छिक वर्दी है; नीले मामले में 0.03 का मतलब है, काला मतलब 0.5 (कुछ घबराना जोड़ा गया है ताकि अंक बहुत अधिक ढेर न हों और विस्तार खो दें) yयहाँ छवि विवरण दर्ज करें

इसी संभावना कार्य: यहाँ छवि विवरण दर्ज करें

प्रत्येक मामले में माध्य को चिह्नित करने वाली रेखाओं पर ध्यान दें। जैसे-जैसे माध्य रेखा अवरोध के विरुद्ध अधिक 'जाम' होती जाती है, नीचे के बिंदुओं को केवल नीचे एक छोटा रास्ता मिल सकता है।

परिणामस्वरूप, माध्य से ऊपर के बिंदु आम तौर पर माध्य से बहुत ऊपर नहीं निकल सकते (क्योंकि अन्यथा माध्य शिफ्ट हो जाएगा!)। पासp=12

यहाँ छवि विवरण दर्ज करें

p^p

[अंतर्ज्ञान का यह रूप हमें यह नहीं बताता है कि यह उस सटीक कार्यात्मक रूप को क्यों लेता है, लेकिन यह स्पष्ट करता है कि विचरण छोरों के पास छोटा क्यों होना चाहिए, और आपके द्वारा जाने वाले छोरों के करीब छोटा हो जाएगा।]


परिणामस्वरूप, माध्य से ऊपर के बिंदु आम तौर पर माध्य से बहुत ऊपर नहीं निकल सकते (क्योंकि अन्यथा माध्य शिफ्ट हो जाएगा!)। P = 12 के पास अंतबिंदु वास्तव में उसी तरह "पुश अप" नहीं करते हैं। एकदम सही। यह एक महान व्याख्या है।
Cam.Davidson.Pilon

7

फिशर जानकारी स्कोर फ़ंक्शन का प्रसरण है। और यह एन्ट्रॉपी से संबंधित है। बर्नौली परीक्षण के लिए हमें प्रत्येक परीक्षण के लिए एक बिट मिल रहा है। इसलिए इस फिशर सूचना में शैनन एंट्रोपी के समान गुण हैं, जैसा कि हम उम्मीद करेंगे। विशेष रूप से एन्ट्रापी की अधिकतम संख्या 1/2 है और सूचना की न्यूनतम संख्या 1/2 है।


आह, एक और महान परिप्रेक्ष्य। मैंने इस बारे में एन्ट्रोपिक के दृष्टिकोण से नहीं सोचा था!
Cam.Davidson.Pilon 21
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.