0/10 से 0/20 की तुलना में


10

कार्य उपलब्धि दरों पर चर्चा करते समय, क्या यह दिखाने का कोई तरीका है कि 20 प्रयासों में से 0 10 प्रयासों में से 0 से "बदतर" है?


1
आप en.wikipedia.org/wiki/Additive_smoothing का उपयोग करने की कोशिश कर सकते हैं, लेकिन ठोस सबूत की तुलना में लहराते हुए हाथ होंगे
abukaj

आप कैसे जानते हैं कि यह बदतर है? उदाहरण के लिए, यदि केवल 10 प्रयास संभव थे, तो आप नहीं जानते कि अधिक प्रयासों के साथ स्कोर क्या होगा।
टिम

4
शायद अनुमानित अनुपात के लिए एक आत्मविश्वास अंतराल?
mdewey

5
यह मुझे एक उचित प्रश्न लगता है। यह पूरी तरह से सामान्य अंतर्ज्ञान पर आधारित है, जिस पर चर्चा की जा सकती है, और मुद्दे को संबोधित करने के लिए सांख्यिकीय तरीके (जैसे, बायेसियन) हैं। मैं खुले में छोड़ने के लिए मतदान कर रहा हूं।
गंग - मोनिका

1
मैं @gung से सहमत हूं। यह अच्छा प्रश्न है।
एलेक्सिस

जवाबों:


3

मान लीजिए कि हम एक प्रयास में सफलता की संभावना जानते हैं। इस मामले में हम 10 में से 0 और 20 मामलों में से 0 की संभावना की गणना करते हैं।

हालाँकि, इस मामले में हम दूसरे रास्ते पर जाते हैं। हम संभावना नहीं जानते, हमारे पास डेटा है और हम संभावना का अनुमान लगाने की कोशिश करते हैं।

हमारे पास जितने अधिक मामले होंगे, परिणाम के संबंध में हम उतने ही निश्चित होंगे। अगर मैं एक सिक्का फ्लिप करूंगा और यह हेड होगा, तो आप बहुत निश्चित नहीं होंगे कि यह डबल हेडेड है। यदि मैं इसे 1,000 बार फेंक दूंगा और यह सभी सिर होगा, तो यह संभावना नहीं है कि यह संतुलित है।

ऐसे तरीके हैं जो अनुमान देते समय ट्रेल्स की संख्या पर विचार करने के लिए डिज़ाइन किए गए थे। उनमें से एक additive चौरसाई है कि @abukaj ऊपर के बारे में टिप्पणी करता है। अतिरिक्त चौरसाई में हम अतिरिक्त छद्म नमूनों को विचार में जोड़ते हैं। हमारे मामले में, निशान के बजाय हमने देखा है कि हम दो और जोड़ते हैं - एक सफल और एक असफल।

  • पहले मामले में स्मूथ होने की संभावना = ~ 8.3% होगी 11+010+1+1112
  • दूसरे मामले में हम = ~%% प्राप्त करेंगे 11+020+1+1122

ध्यान दें कि additive चौरसाई अनुमान का केवल एक तरीका है। आपको अलग-अलग तरीकों के साथ अलग-अलग परिणाम मिलेंगे। अगर आप 4 छद्म नमूनों को जोड़ते हैं, तो भी additive चौरसाई के साथ, आप अलग-अलग परिणाम प्राप्त करेंगे।

एक अन्य विधि विश्वास अंतराल का उपयोग कर रही है जैसा कि @mdewey ने सुझाव दिया है। हमारे पास जितने अधिक नमूने होंगे, आत्मविश्वास अंतराल उतना ही कम होगा। आत्मविश्वास अंतराल का आकार नमूनों के वर्गमूल के लिए आनुपातिक है - । इसलिए, नमूनों की संख्या को दोगुना करने से एक कम आत्मविश्वास अंतराल हो जाएगा।1n2

दोनों मामलों में औसत 0. है। हम 90% का आत्मविश्वास स्तर लेते हैं (z = 1.645)

  • पहले मामले में हमें 0 + ~ 52% मिलेगा1.64510
  • दूसरे मामले में हमें 0 + ~ 36% मिलेगा1.64520

लापता डेटा के मामले में अनिश्चितता है। आपके द्वारा की गई धारणाएं और आपके द्वारा उपयोग किए जाने वाले बाहरी डेटा को आपके द्वारा प्राप्त की गई चीजों में बदल जाएगा।


1
बहुत बहुत धन्यवाद डैन लेविन। आपके उत्तर का पालन करने के लिए एक गैर-गणितज्ञ के लिए पर्याप्त स्पष्ट था, और फिर भी मेरे लिए पर्याप्त रूप से स्पष्ट रूप से आपके स्पष्टीकरण को स्वीकार करने के लिए पर्याप्त था। आपके इनपुट के लिए सभी टिप्पणीकारों को धन्यवाद।
विन्नी

1

आत्मविश्वास अंतराल को लागू करने के विचार का विस्तार, एक सटीक द्विपद अंतराल की अवधारणा है।

द्विपद वितरण स्वतंत्र परीक्षणों में सफलताओं की कुल संख्या है जो 0 (विफलता) या 1 (सफलता) के साथ समाप्त होती है। 1 (सफलता) प्राप्त करने की संभावना पारंपरिक रूप से निरूपित , और इसका पूरक । फिर मानक संभावना परिणाम यह है कि परीक्षणों में वास्तव में सफलताओं की संभावना हैq = 1 - p k npq=1pkn

pn,k=(nk)pkqnk=n!k!(nk)!pkqnk

विश्वास अंतराल की अवधारणा मॉडल मापदंडों के संभावित मूल्यों (यहां, सफलता की संभावनाएं ) के एक सेट को बाध्य करने के लिए है ताकि हम संभावित अंतराल (अच्छे, अक्सर ) के बारे में बयान कर सकें कि क्या सही पैरामीटर मान इस अंतराल के अंदर है (अर्थात् , कि अगर हम 10 या 20 परीक्षणों को बनाने के संभाव्य प्रयोग को दोहराते हैं, और एक निर्दिष्ट तरीके से विश्वास अंतराल का निर्माण करते हैं, तो हम देखेंगे कि पैरामीटर का सही मूल्य अंतराल के 95% के अंदर है)।p

इस स्थिति में, हम उस सूत्र में लिए हल कर सकते हैं : पी एन , 0 = ( 1 - पी ) एनp

pn,0=(1p)n

इसलिए यदि हम 95% एक तरफा अंतराल चाहते हैं, तो हम मनाया गया शून्य गणना की संभावना को अधिकतम 5% पर हल करने के लिए निर्धारित करेंगे । के लिए , जवाब है (यानी, चरम पर, यदि प्रत्येक परीक्षण में एक सफलता की प्रायिकता 13.9%, फिर शून्य सफलताओं को देख की संभावना है 5% है)। के लिए , जवाब है । इसलिए नमूने से , हमने के नमूने से अधिक सीखा , इस अर्थ में कि हम '`को बाहर कर सकते हैं' 'रेंज कि का नमूना अभी भी प्रशंसनीय है।pn,0=5%n=20[0%,13.9%]n=10[0%,25.9%]n=20n=10[13.9%,25.9%]n=10


0

एक बायेसियन दृष्टिकोण

संभावना समारोह Bernoulli है और बीटा वितरण एक है संयुग्म पहले Bernoulli वितरण के लिए है, इसलिए पीछे बीटा वितरण इस प्रकार है। इसके अलावा, पोस्टीरियर को इसके द्वारा मानकीकृत किया गया है:

α^=α+i=1nXiβ^=β+ni=1nXi

इसके फलस्वरूप:

E[pX1,,Xn]=α^α^+β^=α+i=1nXiα+β+n

इस प्रकार यदि आप 10 विफलताओं देखते हैं, की आपकी अपेक्षाओं को है , और यदि आप 20 विफलताओं देखते हैं, की आपकी अपेक्षाओं को है । आप जितनी अधिक असफलताएँ देखेंगे, की आपकी अपेक्षा उतनी ही कम होगी ।αp pααα+β+10p पीαα+β+20p

क्या यह वाजिब तर्क है? यह इस बात पर निर्भर करता है कि आप बायेसियन आंकड़ों के बारे में कैसा महसूस करते हैं, क्या आप संभावना के यांत्रिकी का उपयोग करते हुए कुछ पैरामीटर पर अनिश्चितता के लिए तैयार हैं । और यह इस बात पर निर्भर करता है कि पूर्व की आपकी पसंद कितनी उचित है।p

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.