संभावना
प्रायिकता सिद्धांत में सामान्य समस्याएं टिप्पणियों की संभावना को संदर्भित करती हैं ने एक निश्चित मॉडल दिया है और मापदंडों को शामिल किया है (चलो उन्हें कहते हैं )। उदाहरण के लिए, कार्ड गेम या पासा गेम में विशिष्ट स्थितियों के लिए प्रायिकताएँ बहुत सीधी होती हैं।x1,x2,...,xnθ
हालांकि, कई व्यावहारिक स्थितियों में हम एक उलटा स्थिति ( हीन सांख्यिकी ) से निपट रहे हैं । वह है: अवलोकन दिया गया है और अब मॉडल अज्ञात है , या कम से कम हम कुछ निश्चित पैरामीटर नहीं जानते हैं ।x1,x2,...,xk θθ
समस्याओं के इन प्रकार में हम अक्सर एक शब्द मानकों की संभावना कहा जाता है, का उल्लेख है, जो एक विशिष्ट पैरामीटर में विश्वास की दर है दिया टिप्पणियों । यह शब्द लिए संभावना के आनुपातिक होने के रूप में व्यक्त किया गया है यह मानते हुए कि एक मॉडल पैरामीटर काल्पनिक रूप से सच होगा। L(θ)θx1,x2,..xkx1,x2,..xkθएल (θ, एक्स1, एक्स2, । । एक्सक) ∝ संभाव्यता अवलोकनों x1, एक्स2, । । एक्सक दिया θ
किसी दिए गए पैरामीटर मान के लिए अधिक संभावित एक निश्चित अवलोकन है (अन्य पैरामीटर मानों के साथ संभाव्यता के सापेक्ष), अधिक अवलोकन इस विशेष पैरामीटर (या सिद्धांत / परिकल्पना का समर्थन करता है जो इस पैरामीटर को मानता है) । ए (सापेक्ष) उच्च संभावना उस पैरामीटर मान के बारे में हमारे विश्वास को मजबूत करेगी ( इस बारे में कहने के लिए बहुत अधिक दार्शनिक है)।θएक्स1, एक्स2, । । एक्सn
जर्मन टैंक समस्या में संभावना
जर्मन टैंक समस्या के लिए नमूने के एक समूह के लिए संभावना समारोह है:एक्स1, एक्स2, । । एक्सक
एल (θ, एक्स1, एक्स2, । । एक्सक) = पीआर ( एक्स1, एक्स2, । । एक्सक, Θ ) = { 0( θक)- 1यदि अधिकतम ( एक्स1, एक्स2, । । एक्सक) > θयदि अधिकतम ( एक्स1, एक्स2, । । एक्सक) ≤ θ ,
आप नमूने {1, 2, 10} का निरीक्षण करते हैं या नमूने {8, 9, 10} का नहीं होना चाहिए जब नमूने को पैरामीटर साथ एक समान वितरण से माना जाता है । दोनों नमूने समान रूप से प्रायिकता के साथ होने की संभावना है और संभावना के विचार का उपयोग करते हुए एक नमूना अन्य नमूने की तुलना में पैरामीटर बारे में अधिक नहीं बताता है ।θ( θ3)- 1θ
उच्च मूल्यों {8, 9, 10} आपको लगता है / विश्वास है कि कर सकता है अधिक होना चाहिए। लेकिन, यह केवल मान {10} है जो वास्तव में आपको की संभावना के बारे में प्रासंगिक जानकारी देता है (मान 10 आपको बताता है कि दस या अधिक होगा, अन्य मान 8 और 9 इस जानकारी में कुछ भी योगदान नहीं करते हैं )।θθ θθθ
फिशर नेमन कारक प्रमेय
यह प्रमेय आपको बताता है कि एक निश्चित आँकड़ा (जैसे कि टिप्पणियों के कुछ कार्य, जैसे माध्य, माध्यिका या जर्मन टैंक समस्या में अधिकतम) पर्याप्त है (सभी जानकारी शामिल हैं) आप कर सकते हैं, संभावना समारोह में, ऐसे शब्द जो अन्य टिप्पणियों पर निर्भर हैं, जैसे कि यह कारक दोनों पैरामीटर और (और) पर निर्भर नहीं करता है संभावना फ़ंक्शन का वह हिस्सा जो डेटा को काल्पनिक पैरामीटर मानों से संबंधित करता है, केवल आंकड़े पर निर्भर करता है, लेकिन संपूर्ण डेटा / टिप्पणियों पर नहीं)।टी( x)1, एक्स2, ... , एक्सक)एक्स1, एक्स2, ... , एक्सकθएक्स1, एक्स2, ... , एक्सक
जर्मन टैंक समस्या का मामला सरल है। आप ऊपर देख सकते हैं कि ऊपर की संभावना के लिए पूरी अभिव्यक्ति पहले से ही केवल आंकड़े के और शेष मानों करती है।अधिकतम ( x)1, एक्स2, । । एक्सक)एक्स1, एक्स2, । । एक्सक
उदाहरण के तौर पर छोटा खेल
मान लें कि हम निम्नलिखित गेम बार-बार खेलते हैं: अपने आप में एक रैंडम वैरिएबल है और 100 या 110 के बराबर संभावना के साथ बनाया गया है। फिर हम एक नमूना ।θएक्स1, एक्स2, । । । , एक्सक
हम अनुमान लगाने के लिए एक रणनीति का चयन करना चाहते , जिसके तहत अवलोकन के आधार पर इस बात का सही अनुमान के लिए हमारे संभावना अधिकतम ।θएक्स1, एक्स2, । । । , एक्सकθ
जब तक नमूने में कोई संख्या> 100 नहीं होगी तब तक उचित रणनीति 100 का चयन करना होगा।
जब हम सभी उच्च मानों को सौ के करीब (लेकिन कोई भी सौ से अधिक नहीं) करते हैं हम पहले से ही पैरामीटर मान 110 चुनने के लिए हैं, लेकिन यह गलत होगा। इस तरह के अवलोकन के लिए संभावना तब बड़ी होगी जब सही पैरामीटर मान 100 से 110 के स्तर पर हो। इसलिए यदि हम अनुमान लगाते हैं कि ऐसी स्थिति में पैरामीटर मान के रूप में 100 है, तो हमसे गलती होने की संभावना कम होगी (क्योंकि इन उच्च मूल्यों के साथ स्थिति सौ के करीब है, फिर भी इसके नीचे है, इस मामले में अधिक बार होता है कि सच्चा मूल्य इस मामले की बजाय 100 है कि सही मूल्य 110 है)।एक्स1, एक्स2, । । । , एक्सक