जर्मन टैंक समस्या का समाधान


10

क्या एक औपचारिक गणितीय प्रमाण है कि जर्मन टैंक समस्या का समाधान केवल मापदंडों k (मनाया नमूनों की संख्या) और मीटर (मनाया नमूनों में अधिकतम मूल्य) का एक कार्य है? दूसरे शब्दों में, क्या कोई यह साबित कर सकता है कि समाधान अधिकतम मूल्य के अलावा अन्य नमूना मूल्यों से स्वतंत्र है?


3
तुम क्या कर रहे पूछने को दिखाने के लिए कैसे है कि नमूने अधिकतम है पर्याप्त पैरामीटर के लिए θ को निर्दिष्ट ऊपरी 1 से एक असतत समान वितरण के लिए बाध्य θ
Scortchi - को पुनः स्थापित मोनिका

2
फिशर नेमन फैक्टराइजेशन प्रमेय इसी संभावना समारोह, k मनाया नमूनों की संभावना (अधिकतम द्वारा संक्षेप m) को दिए गए पैरामीटर n (टैंक की संख्या) पूरी तरह से k और संदर्भ में लिखा जा सकता है। कि एक जवाब होगा? m
पीआर(=|n,)={0अगर >n(-1-1)(n)अगर n,
सेक्स्टस एम्पिरिकस

@Scortchi जो सही है, मेरे लिए स्पष्ट तरीके से इसे फिर से प्रस्तुत करने के लिए धन्यवाद।
बोगडान अलेक्जेंड्रू

@MartijnWeterings नहीं; अनिवार्य रूप से मैं एक प्रमाण के लिए स्कोर्टची की टिप्पणी (ऊपर उद्धृत करते हुए) पूछ रहा हूं कि वास्तव में समाधान की गणना किए बिना समाधान के लिए अधिकतम नमूना पर्याप्त है ।
बोगडान अलेक्जेंड्रू

तो आप सबूत के रूप में फिशर नेमन फैक्टराइजेशन प्रमेय की तलाश नहीं कर रहे हैं?
सेक्सस एम्पिरिकस

जवाबों:


15

संभावना

प्रायिकता सिद्धांत में सामान्य समस्याएं टिप्पणियों की संभावना को संदर्भित करती हैं ने एक निश्चित मॉडल दिया है और मापदंडों को शामिल किया है (चलो उन्हें कहते हैं )। उदाहरण के लिए, कार्ड गेम या पासा गेम में विशिष्ट स्थितियों के लिए प्रायिकताएँ बहुत सीधी होती हैं।x1,x2,...,xnθ

हालांकि, कई व्यावहारिक स्थितियों में हम एक उलटा स्थिति ( हीन सांख्यिकी ) से निपट रहे हैं । वह है: अवलोकन दिया गया है और अब मॉडल अज्ञात है , या कम से कम हम कुछ निश्चित पैरामीटर नहीं जानते हैं ।x1,x2,...,xk θθ

समस्याओं के इन प्रकार में हम अक्सर एक शब्द मानकों की संभावना कहा जाता है, का उल्लेख है, जो एक विशिष्ट पैरामीटर में विश्वास की दर है दिया टिप्पणियों । यह शब्द लिए संभावना के आनुपातिक होने के रूप में व्यक्त किया गया है यह मानते हुए कि एक मॉडल पैरामीटर काल्पनिक रूप से सच होगा। L(θ)θx1,x2,..xkx1,x2,..xkθ

एल(θ,एक्स1,एक्स2,एक्स)αसंभाव्यता अवलोकन एक्स1,एक्स2,एक्स दिया हुआ θ 

किसी दिए गए पैरामीटर मान के लिए अधिक संभावित एक निश्चित अवलोकन है (अन्य पैरामीटर मानों के साथ संभाव्यता के सापेक्ष), अधिक अवलोकन इस विशेष पैरामीटर (या सिद्धांत / परिकल्पना का समर्थन करता है जो इस पैरामीटर को मानता है) । ए (सापेक्ष) उच्च संभावना उस पैरामीटर मान के बारे में हमारे विश्वास को मजबूत करेगी ( इस बारे में कहने के लिए बहुत अधिक दार्शनिक है)।θएक्स1,एक्स2,एक्सn


जर्मन टैंक समस्या में संभावना

जर्मन टैंक समस्या के लिए नमूने के एक समूह के लिए संभावना समारोह है:एक्स1,एक्स2,एक्स

एल(θ,एक्स1,एक्स2,एक्स)=पीआर(एक्स1,एक्स2,एक्स,θ)={0अगर अधिकतम(एक्स1,एक्स2,एक्स)>θ(θ)-1अगर अधिकतम(एक्स1,एक्स2,एक्स)θ,

आप नमूने {1, 2, 10} का निरीक्षण करते हैं या नमूने {8, 9, 10} का नहीं होना चाहिए जब नमूने को पैरामीटर साथ एक समान वितरण से माना जाता है । दोनों नमूने समान रूप से प्रायिकता के साथ होने की संभावना है और संभावना के विचार का उपयोग करते हुए एक नमूना अन्य नमूने की तुलना में पैरामीटर बारे में अधिक नहीं बताता है ।θ(θ3)-1θ

उच्च मूल्यों {8, 9, 10} आपको लगता है / विश्वास है कि कर सकता है अधिक होना चाहिए। लेकिन, यह केवल मान {10} है जो वास्तव में आपको की संभावना के बारे में प्रासंगिक जानकारी देता है (मान 10 आपको बताता है कि दस या अधिक होगा, अन्य मान 8 और 9 इस जानकारी में कुछ भी योगदान नहीं करते हैं )।θθ θθθ


फिशर नेमन कारक प्रमेय

यह प्रमेय आपको बताता है कि एक निश्चित आँकड़ा (जैसे कि टिप्पणियों के कुछ कार्य, जैसे माध्य, माध्यिका या जर्मन टैंक समस्या में अधिकतम) पर्याप्त है (सभी जानकारी शामिल हैं) आप कर सकते हैं, संभावना समारोह में, ऐसे शब्द जो अन्य टिप्पणियों पर निर्भर हैं, जैसे कि यह कारक दोनों पैरामीटर और (और) पर निर्भर नहीं करता है संभावना फ़ंक्शन का वह हिस्सा जो डेटा को काल्पनिक पैरामीटर मानों से संबंधित करता है, केवल आंकड़े पर निर्भर करता है, लेकिन संपूर्ण डेटा / टिप्पणियों पर नहीं)।टी(एक्स1,एक्स2,...,एक्स)एक्स1,एक्स2,...,एक्सθएक्स1,एक्स2,...,एक्स

जर्मन टैंक समस्या का मामला सरल है। आप ऊपर देख सकते हैं कि ऊपर की संभावना के लिए पूरी अभिव्यक्ति पहले से ही केवल आंकड़े के और शेष मानों करती है।अधिकतम(एक्स1,एक्स2,एक्स)एक्स1,एक्स2,एक्स


उदाहरण के तौर पर छोटा खेल

मान लें कि हम निम्नलिखित गेम बार-बार खेलते हैं: अपने आप में एक रैंडम वैरिएबल है और 100 या 110 के बराबर संभावना के साथ बनाया गया है। फिर हम एक नमूना ।θएक्स1,एक्स2,,एक्स

हम अनुमान लगाने के लिए एक रणनीति का चयन करना चाहते , जिसके तहत अवलोकन के आधार पर इस बात का सही अनुमान के लिए हमारे संभावना अधिकतम ।θएक्स1,एक्स2,,एक्सθ

जब तक नमूने में कोई संख्या> 100 नहीं होगी तब तक उचित रणनीति 100 का चयन करना होगा।

जब हम सभी उच्च मानों को सौ के करीब (लेकिन कोई भी सौ से अधिक नहीं) करते हैं हम पहले से ही पैरामीटर मान 110 चुनने के लिए हैं, लेकिन यह गलत होगा। इस तरह के अवलोकन के लिए संभावना तब बड़ी होगी जब सही पैरामीटर मान 100 से 110 के स्तर पर हो। इसलिए यदि हम अनुमान लगाते हैं कि ऐसी स्थिति में पैरामीटर मान के रूप में 100 है, तो हमसे गलती होने की संभावना कम होगी (क्योंकि इन उच्च मूल्यों के साथ स्थिति सौ के करीब है, फिर भी इसके नीचे है, इस मामले में अधिक बार होता है कि सच्चा मूल्य इस मामले की बजाय 100 है कि सही मूल्य 110 है)।एक्स1,एक्स2,,एक्स


बहुत बढ़िया, वास्तव में मुझे क्या चाहिए! आपके अंतिम कोष्ठक पर सिर्फ एक टिप्पणी: आप कह रहे हैं "सौ के करीब ये उच्च मूल्य अधिक बार होते हैं ...", जो मैं समझता हूं कि यह क्यों सच है, लेकिन सिर्फ स्पष्ट करने के लिए: 1 और 100 के बीच कोई भी मूल्य होने की अधिक संभावना है जब पैरामीटर 100 है (अनिवार्य रूप से 1-100 में प्रत्येक संख्या के लिए संभावना 1 / पैरामीटर है)।
बोगडान एलेक्जेंड्रू

इसके अलावा, अब मेरी पोस्ट पर आपकी प्रारंभिक टिप्पणी से समझ में आता है - अगर मुझे पता होता कि इन अवधारणाओं को कैसे लागू किया जाए, तो आपकी टिप्पणी ठीक उसी तरह की होती जो मुझे प्रमाण प्राप्त करने के लिए आवश्यक होती। एक बार फिर धन्यवाद!
बोगडान अलेक्जेंड्रू

@BogdanAlexandru आप सही हैं; यह 1-100 के बीच किसी भी मूल्य के लिए सही है। यह प्रतिवादी विचार है, हम सोचते हैं कि उच्च देखे गए मान किसी तरह कम मानों की तुलना में कुछ पैरामीटर मान के लिए अधिक प्रमाण हैं, लेकिन किसी भी संख्या के लिए समान रूप से संभावना है और इस प्रकार मॉडल पैरामीटर के बारे में हमारे विश्वासों के लिए कुछ भी योगदान नहीं करना चाहिए / ( अधिकतम मूल्य को छोड़कर जो हम निरीक्षण करते हैं। लेकिन उस खेल में भी जिसे मैंने केवल दो मूल्यों के बीच एक विकल्प के साथ बनाया था। यह ऐसा है कि अधिकतम भी अधिक जानकारी प्रदान नहीं करता है जब यह उच्च या निम्न होता है, सौ सीमा के अलावा)।
सेक्स्टस एम्पिरिकस

मेरी शुरुआती टिप्पणी बहुत भारी रही होगी, लेकिन मैं यह देखने के लिए मज़ाक कर रहा था कि किस तरह का उत्तर देना आवश्यक है। विशेष रूप से मुझे 'प्रूफ' शब्द थोड़ा मजबूत लगता है और आप सोच रहे थे कि क्या आप सिर्फ फैक्टराइजेशन प्रमेय की तलाश कर रहे थे (जो कि उस प्रशन का उत्तर दिया जाएगा जब आप उस प्रमेय को नहीं जानते होंगे) या आप कुछ और अस्पष्ट खोज रहे थे या नहीं दार्शनिक, जैसे आँकड़ों की चुनौतीपूर्ण अवधारणाएँ / संभावनाएँ और ऐसे प्रमेय से परे जाकर एक अलग प्रकार का "प्रमाण" देखना।
सेक्स्टस एम्पिरिकस

मेरे इरादों पर अच्छा पढ़ा! एक बार फिर धन्यवाद।
बोगदान अलेक्जेंड्रू

0

आपने "समस्या" का सटीक सूत्रीकरण प्रस्तुत नहीं किया है, इसलिए यह बिल्कुल स्पष्ट नहीं है कि आप क्या साबित करने के लिए कह रहे हैं। एक बायेसियन परिप्रेक्ष्य से, पश्चगामी संभावना सभी डेटा पर निर्भर करती है। हालाँकि, किसी विशेष क्रम संख्या का प्रत्येक अवलोकन उस संख्या का समर्थन करेगा। यही है, किसी भी अवलोकन देखते हुए , पीछे और पूर्व के बीच अंतर अनुपात की परिकल्पना के लिए अधिक होगा "टैंक की वास्तविक संख्या " की तुलना में " टैंक की वास्तविक संख्या [ ] के अलावा अन्य संख्या " है। इस प्रकार, यदि हम पहले से एक समान के साथ शुरू करते हैं, तो उस अवलोकन को देखने के बाद सबसे अधिक पीछे होगा।nnnn

एक मामले पर विचार करें जहां हमारे पास डेटा बिंदु , और परिकल्पना । जाहिर है, लिए पद शून्य है। और लिए हमारे उनके पूर्व की तुलना में बड़े होंगे। इस का कारण यह है कि बायेसियन तर्क में, सबूत के अभाव है है अनुपस्थिति के सबूत। किसी भी समय हम एक अवसर है जहां हमारे पास हो सकता था एक अवलोकन है कि हमारे संभावना की कमी होगी, बना है, लेकिन नहीं है, संभावना बढ़ जाती है। चूँकि हम को देख सकते थे , जिसने हमारे को लिए शून्य पर सेट कर दिया होगा , इस तथ्य को हमने नहीं देखा, इसका मतलब यह है कि हमें अपने पोस्टरों को बढ़ाना चाहिए13एन=10,13,15एन=10एन=13,1516 एन = 13 , 15 एन = 13 , 15 एन = 13 14 , 15 , 16 , एन = 15 16 एन = 13 एन = 15 एन = 13 एन = 13 एन = 15 एन16एन=13,15एन=13,15 । लेकिन ध्यान दें कि संख्या जितनी छोटी होगी, हम उतने अधिक संख्या को देख पाएंगे जो उस संख्या को बाहर कर देगा। के लिए है, हम को देखने के बाद कि परिकल्पना को अस्वीकार कर दिया है | । लेकिन , हमें परिकल्पना को अस्वीकार करने के लिए कम से कम आवश्यकता होगी । परिकल्पना के बाद से से ज्यादा झूठा साबित किया है , तथ्य यह है कि हम उस में नहीं आया झूठ साबित के लिए और अधिक सबूत है , हेरफेर करता नहीं की तुलना में के लिए सबूत नहीं है ।एन=1314,15,16,एन=1516एन=13एन=15एन=13एन=13एन=15एन=15

इसलिए हर बार जब हम एक डेटा बिंदु देखते हैं, तो यह उसके नीचे की सभी चीज़ों को शून्य पर सेट करता है, और बाकी सब चीज़ों के पीछे के हिस्से को बढ़ा देता है, जिसमें छोटी संख्या को सबसे अधिक बढ़ावा मिलता है। इस प्रकार, जिस संख्या को समग्र रूप से सबसे अधिक बढ़ावा मिलता है वह सबसे छोटी संख्या होगी, जिसका पिछला भाग शून्य पर सेट नहीं किया गया था, अर्थात टिप्पणियों का अधिकतम मूल्य।

अधिकतम से कम संख्या प्रभावित करती है कि अधिकतम को कितना बड़ा बढ़ावा मिलता है, लेकिन यह अधिकतम प्राप्त करने के सामान्य रुझान को प्रभावित नहीं करता है। उपरोक्त उदाहरण पर विचार करें, जहां हम पहले ही देख चुके हैं । यदि हम देखते हैं कि अगली संख्या , तो इसका क्या प्रभाव पड़ेगा? यह से अधिक मदद करता है , लेकिन दोनों संख्याओं को पहले ही खारिज कर दिया गया है, इसलिए यह प्रासंगिक नहीं है। यह से अधिक की मदद करता है , लेकिन पहले से ही से अधिक मदद की गई है , ताकि यह प्रभावित न हो कि किस संख्या को सबसे अधिक मदद की गई है।1355613151315


यह उदाहरण स्थिति पर बहुत कुछ निर्भर करता है और कथन सामान्य नहीं हैं। उदाहरण के लिए, यदि पूर्व १३ के लिए ५०% और १५ के लिए ५०% है तो १३ का अवलोकन ऐसा नहीं है कि "एन = १३, १५ के लिए हमारे पोस्टर उनके पूर्व से बड़े होंगे" अवलोकन पूर्व के सापेक्ष कम हो सकते हैं ।
सेक्सटस एम्पिरिकस

इसके अलावा, अधिक अतिरिक्त संख्याओं के अवलोकन से अनुमान बदल सकते हैं। मामले में "यदि हम देखते हैं कि अगली संख्या 5 है ..." तो फिर भी पोस्टीरियर बदल जाएगा, यहां तक ​​कि जब संख्याएं पहले से ही 'मदद' कर चुकी हों, तो अतिरिक्त संख्या इस "मदद करने" को बढ़ा सकती है (जैसे जब आप सभी नंबरों का नमूना लेते हैं 1,2, ... 12, 13 तब यह 13 से अधिक के लिए पश्च की वृद्धि करेगा जब आप केवल नमूना 13)
सेक्स्टस एम्पिरिकस
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.