आत्मविश्वास अंतराल की व्याख्या पर स्पष्टीकरण?


47

धारणा की मेरी वर्तमान समझ "आत्मविश्वास स्तर साथ आत्मविश्वास अंतराल " यह है कि अगर हमने कई बार विश्वास अंतराल की गणना करने की कोशिश की (प्रत्येक बार एक ताजा नमूने के साथ), इसमें सही पैरामीटर होगा समय।1α1α

हालांकि मुझे लगता है कि यह "संभावना है कि असली पैरामीटर इस अंतराल में निहित है" के समान नहीं है, कुछ ऐसा है जिसे मैं स्पष्ट करना चाहता हूं।

[प्रमुख अद्यतन]

इससे पहले कि हम 95% विश्वास अंतराल की गणना करें, एक 95% संभावना है कि जिस अंतराल की हम गणना करते हैं, वह सच्चे पैरामीटर को कवर करेगा। जब हमने विश्वास अंतराल की गणना की और एक विशेष अंतराल , तो हम अब यह नहीं कह सकते। हम किसी प्रकार के गैर-निरंतरवादी तर्क भी नहीं दे सकते हैं कि हम 95% सुनिश्चित हैं कि सच्चा पैरामीटर में झूठ होगा ; अगर हम कर सकते हैं, तो यह इस तरह के एक के रूप में विरोधाभासी विरोधाभास होगा: क्या, ठीक है, एक विश्वास अंतराल है?[ , बी ][a,b][a,b]

मैं इसे संभाव्यता के दर्शन के बारे में बहस नहीं करना चाहता; इसके बजाय, मैं एक सटीक, गणितीय स्पष्टीकरण की तलाश में हूं कि कैसे और क्यों विशेष अंतराल को देखते हुए परिवर्तन (या नहीं बदलता है) उस अंतराल को देखने से पहले हमारे पास 95% संभावना थी। आप तर्क है कि "अंतराल को देखने के बाद, संभावना की धारणा अब कोई मतलब नहीं है", तो ठीक, संभावना की एक व्याख्या है, जिसमें उस में के काम करते हैं करता है मेकअप भावना।[a,b]

ज्यादा ठीक:

मान लीजिए कि हम 95% विश्वास अंतराल की गणना करने के लिए एक कंप्यूटर प्रोग्राम करते हैं। कंप्यूटर कुछ संख्या क्रंचिंग करता है, एक अंतराल की गणना करता है, और जब तक मैं पासवर्ड दर्ज नहीं करता, मुझे अंतराल दिखाने से इनकार करता है। इससे पहले कि मैंने पासवर्ड दर्ज किया है और अंतराल देखा है (लेकिन कंप्यूटर ने पहले ही इसकी गणना कर ली है), क्या संभावना है कि अंतराल में सही पैरामीटर होगा? यह 95% है, और यह हिस्सा बहस के लिए नहीं है : यह संभावना की व्याख्या है जो मुझे इस विशेष प्रश्न के लिए दिलचस्पी है (मुझे एहसास है कि प्रमुख दार्शनिक मुद्दे हैं जो मैं दबा रहा हूं, और यह जानबूझकर है)।

लेकिन जैसे ही मैं पासवर्ड टाइप करता हूं और कंप्यूटर मुझे उस अंतराल की गणना करता है, जो इसकी गणना करता है, संभावना (कि अंतराल में सही पैरामीटर है) बदल सकता है। कोई भी दावा है कि यह संभावना कभी नहीं बदल सकती है ऊपर के प्रतिवाद का खंडन करेगी। इस प्रतिधारण में संभावना 50% से 100% तक बदल सकती है, लेकिन ...

  • क्या कोई उदाहरण हैं जहां संभावना 100% या 0% (EDIT: और यदि हां, तो वे क्या हैं) के अलावा किसी और चीज़ में बदल जाती है?

  • क्या ऐसे कोई उदाहरण हैं जहां विशेष अंतराल (यानी कि सही पैरामीटर अभी भी 95% है) में निहित होने की संभावना को देखने के बाद संभावना नहीं बदलती है ?[ , बी ][a,b][a,b]

  • कंप्यूटर थूक को देखने के बाद सामान्य रूप से संभावना कैसे और क्यों बदल जाती है ?[a,b]

[संपादित करें]

सभी महान जवाब और उपयोगी चर्चा के लिए धन्यवाद!


1
यह कुछ दिलचस्प बिंदु प्रदान कर सकता है: en.wikipedia.org/wiki/Credible_interval
nico

आपकी धारणाएँ कि P (E | C) = 1 और P (E | C ') = 0 अनुचित हैं। आप यह क्यों कहते हैं कि यदि वास्तविक अंतराल में सही पैरामीटर मान नहीं है तो यह निश्चित रूप से इसके बाहर है?
बेजान

मुझे यकीन नहीं है कि आप "वास्तविक अंतराल" या "बाद वाले एक" से क्या मतलब है। क्या आप स्पष्ट कर सकते हैं?
इलियट

@nico लिंक के लिए धन्यवाद। मेरे मूल प्रश्न का आशय यह था कि "मेरा तर्क यह दर्शाता है कि एक विश्वास अंतराल को बायेसियन विश्वसनीय अंतराल के रूप में व्याख्या किया जा सकता है, लेकिन यह मामला नहीं है, इसलिए मेरे तर्क में गलत क्या है"। लेकिन मुझे स्वीकार करना होगा, मैं इस धारणा से खुश नहीं हूं "संभावना है कि अंतराल में [अज्ञात] असली पैरामीटर या तो 0 या 1 है।" मेरे लिए, यह कहने की तरह है कि "संभावना यह है कि सिक्का सिर से उतरा, मैंने इसे फ़्लिप किया, लेकिन इससे पहले कि मैंने इसे देखा है, या तो 0 या 1 है"; मैं यह नहीं देखता कि यह 1/2 क्यों नहीं है।
इलियट

@ ईलियट: श्रोडिंगर की बिल्ली के मन में आता है :) मैं आपको उचित स्पष्टीकरण देने के लिए पर्याप्त रूप से विशेषज्ञ नहीं हूं, लेकिन मुझे इसका जवाब देखना अच्छा लगेगा। पुनश्च: और यह मत भूलो कि सिक्का किनारे पर भी गिर सकता है!
निको

जवाबों:


28

मुझे लगता है कि मूलभूत समस्या यह है कि लगातार आंकड़े केवल उस चीज के लिए एक संभावना प्रदान कर सकते हैं जिसमें एक लंबी आवृत्ति हो सकती है। चाहे पैरामीटर का सही मान किसी विशेष अंतराल में हो या लंबे समय तक चलने की आवृत्ति न हो, क्योंकि हम केवल एक बार ही प्रयोग कर सकते हैं, इसलिए आप इसके लिए एक संभावित संभावना नहीं बता सकते। समस्या एक संभावना की परिभाषा से उत्पन्न होती है। यदि आप एक बायेसियन एक के लिए एक संभावना की परिभाषा को बदलते हैं, तो समस्या तुरंत गायब हो जाती है क्योंकि आप लंबे समय तक चलने वाली आवृत्तियों की चर्चा से बंधे नहीं हैं।

मेरे (संबंधित गाल में ताल देखें) एक संबंधित प्रश्न का उत्तर यहां देखें :

" एक फ़्रीक्वेंटिस्ट वह है जो मानता है कि प्रोबायिलीज़ लंबे समय तक फ़्रीक्वेंसी का प्रतिनिधित्व करते हैं, जिसके साथ ऑयक्रूज़ होता है; यदि ज़रूरत हो, तो वह एक काल्पनिक आबादी का आविष्कार करेगा, जहाँ से आपकी विशेष स्थिति को एक यादृच्छिक नमूना माना जा सकता है ताकि वह सार्थक रूप से लंबी फ़्रीक्वेंसी के बारे में बात कर सके। आप उससे किसी विशेष स्थिति के बारे में सवाल पूछते हैं, वह सीधा जवाब नहीं देगा, बल्कि इसके बारे में एक बयान (संभवतः काल्पनिक आबादी) देगा। "

एक विश्वास अंतराल के मामले में, हम आम तौर पर सवाल पूछना चाहते हैं (जब तक कि उदाहरण के लिए गुणवत्ता नियंत्रण में कोई समस्या नहीं है) "डेटा का यह नमूना दिया जाता है, छोटे अंतराल को लौटाएं जिसमें संभावना के साथ पैरामीटर का सही मूल्य होता है एक्स"। हालांकि एक व्यक्तिवादी ऐसा नहीं कर सकता है क्योंकि प्रयोग केवल एक बार किया जाता है और इसलिए लंबे समय तक चलने वाली आवृत्तियां नहीं होती हैं, जिनका उपयोग एक संभावना को असाइन करने के लिए किया जा सकता है। इसलिए इसके बजाय अक्सर व्यक्ति को प्रयोगों की एक आबादी का आविष्कार करना होता है (जो आपने प्रदर्शन नहीं किया था) जिससे आपने जो प्रयोग किया था उसे एक यादृच्छिक नमूना माना जा सकता है। इसके बाद अक्सर प्रयोग करने वाला व्यक्ति उस काल्पनिक प्रयोग के बारे में आपको एक अप्रत्यक्ष उत्तर देता है, बजाय इसके कि आप किसी विशेष प्रयोग के बारे में पूछना चाहते हैं।

अनिवार्य रूप से यह भाषा की समस्या है, एक आबादी की लगातार परिभाषा बस एक विशेष अंतराल में झूठे पैरामीटर के सही मूल्य की संभावना की चर्चा की अनुमति नहीं देती है। इसका मतलब यह नहीं है कि लगातार आंकड़े खराब हैं, या उपयोगी नहीं हैं, लेकिन सीमाओं को जानना महत्वपूर्ण है।

प्रमुख अद्यतन के बारे में

मुझे यकीन नहीं है कि हम यह कह सकते हैं कि "इससे पहले कि हम 95% विश्वास अंतराल की गणना करें, एक 95% संभावना है कि जिस अंतराल की हम गणना करते हैं वह सच्चे पैरामीटर को कवर करेगा।" एक निरंतरवादी ढांचे के भीतर। यहाँ एक अंतर्निहित अनुमान है कि लंबे समय तक चलने वाली आवृत्ति जिसके साथ पैरामीटर का असली मूल्य कुछ विशेष विधि द्वारा निर्मित आत्मविश्वास अंतराल में निहित है, यह भी संभावना है कि पैरामीटर का सही मूल्य विशेष नमूने के लिए विश्वास अंतराल में निहित होगा डेटा का हम उपयोग करने जा रहे हैं। यह एक पूरी तरह से उचित निष्कर्ष है, लेकिन यह एक बायेसियन निष्कर्ष है, एक व्यक्तिवादी नहीं है, क्योंकि संभावना है कि पैरामीटर का सही मूल्य विश्वास अंतराल में है जो हम डेटा के एक विशेष नमूने के लिए बनाते हैं, कोई लंबे समय तक फ्रीक्वेंसी नहीं है, जैसा कि हमारे पास केवल डेटा का एक नमूना है।

हम हालांकि "किसी प्रकार के गैर-निरंतरवादी तर्क दे सकते हैं कि हम 95% सुनिश्चित हैं कि सच्चा पैरामीटर [ए, बी]" में निहित होगा, यही वास्तव में बायेसियन विश्वसनीय अंतराल है, और कई समस्याओं के लिए बायेसियन विश्वसनीय अंतराल है। वास्तव में लगातार विश्वास अंतराल के साथ मेल खाता है।

"मैं इसे संभाव्यता के दर्शन के बारे में बहस नहीं करना चाहता", दुख की बात यह है कि यह अपरिहार्य है, जिस कारण से आप लगातार संभावना को निर्दिष्ट नहीं कर सकते हैं कि क्या विश्वास अंतराल में सांख्यिकीय झूठ का सही मूल्य एक सीधा परिणाम है प्रायिकता के दर्शनवादी। फ़्रीक्वॉन्सर केवल उन चीज़ों के लिए प्रायिकता प्रदान कर सकते हैं जिनमें लंबे समय तक आवृत्तियों हो सकती हैं, जैसा कि फ़्रीवॉन्सर अपने दर्शन में संभावना को कैसे परिभाषित करते हैं। यह अक्सरवादी दर्शन को गलत नहीं बनाता है, लेकिन एक संभावना की परिभाषा द्वारा लगाए गए सीमा को समझना महत्वपूर्ण है।

"इससे पहले कि मैंने पासवर्ड दर्ज किया और अंतराल देखा (लेकिन कंप्यूटर ने पहले ही इसकी गणना कर ली है), क्या संभावना है कि अंतराल में सही पैरामीटर होगा? यह 95% है, और यह हिस्सा बहस के लिए नहीं है:" यह गलत है, या कम से कम इस तरह के एक बयान को बनाने में, आपने लगातार आंकड़ों के ढांचे से प्रस्थान किया है और एक बायेसियन निष्कर्ष निकाला है, जिसमें एक बयान की सच्चाई में लंबे समय तक चलने की आवृत्ति के बजाय बहुतायत की डिग्री शामिल है। हालांकि, जैसा कि मैंने पहले कहा है, यह पूरी तरह से उचित और प्राकृतिक अनुमान है।

पासवर्ड दर्ज करने से पहले या बाद में कुछ भी नहीं बदला है, क्योंकि नीथेर घटना को एक प्रायिकता संभावना सौंपी जा सकती है। फ़्रीक्वेंटिस्ट आंकड़े बल्कि प्रति-सहज ज्ञान युक्त हो सकते हैं क्योंकि हम अक्सर विशेष घटनाओं के बारे में बयानों की बहुलता की डिग्री के बारे में सवाल पूछना चाहते हैं, लेकिन यह लगातार आंकड़ों के रीमिट के बाहर है, और यह लगातार प्रक्रियाओं की सबसे गलत व्याख्याओं का मूल है।


2
हां, यह वह बिंदु है जो मैं बना रहा हूं, दूसरा बयान वास्तव में इस विशेष सिक्के के बारे में बयान नहीं है। यह सिक्कों की एक काल्पनिक आबादी के बारे में एक बयान है जो ज्यादातर लोग हमारे विशेष सिक्के के बारे में एक बयान के रूप में गलत तरीके से आत्मनिरीक्षण करते हैं। हालाँकि उस छलांग को बनाने में हम बायसीयन अंतर्ज्ञान को संभाव्यता के बारे में बता रहे हैं, और वास्तव में एक विश्वास अंतराल क्या है इसे अनदेखा कर रहे हैं। सिक्के की स्थिति के लिए एक संभावना को निर्दिष्ट करने में कोई समस्या नहीं है, बशर्ते हम संभावना की एक लगातार परिभाषा से दूर जाते हैं।
डिक्रान मार्सुपियल

2
स्पष्ट करने के लिए, यह कहने के लिए कि "समय की शुरुआत के कई अलग-अलग उदाहरणों की कल्पना करें; आप उनमें से आधे के बारे में उम्मीद करेंगे कि वे सिर का उत्पादन करेंगे" पूरी तरह से सही तर्कवादी तर्क है। हालांकि वहाँ से जाने के लिए "इसलिए संभावना है कि यह पार्टिकल सिक्का भी 0.5 है" ऐसा नहीं है कि प्रायिकता उस चीज पर लागू होती है जिसमें लंबे समय तक चलने की आवृत्ति नहीं होती है क्योंकि यह केवल और केवल एक बार ही हो सकती है। यह पूरी तरह से ध्वनि बायेसियन तर्क है, हालांकि, बायेसियन संभावना एक प्रस्ताव की बहुलता के बारे में एक बयान है (जो एक आबादी के भीतर लंबे समय तक चलने की आवृत्ति पर आधारित हो सकता है)।
डिक्रान मार्सुपियल

1
दोनों सवालों के लिए उनका जवाब वास्तव में सिक्कों की एक काल्पनिक आबादी के अनुपात के बारे में एक बयान होगा जो प्रमुख होंगे। लेकिन यह संभावना है कि यह स्पष्ट नहीं किया जाएगा, क्योंकि लोग आम तौर पर सहायक होना पसंद करते हैं (अप्रत्यक्ष उत्तर आमतौर पर सहायक नहीं होते हैं), और अक्सर आंकड़े भी प्रति-सहज होते हैं और बचने के लिए इस बिंदु के आसपास अक्सर स्कर्ट की संभावना होती है उलझन। यदि किसी विशेष फ्लिप के बारे में एक संभाव्य क़ानून बनाने के लिए नीचे पिन किया जाता है, तो एक अच्छा एग्ज़िस्टिस्ट बस जवाब देने से इंकार कर देगा - यह बार-बार होने वाले आंकड़ों की सीमा के बाहर है।
डिक्रान मार्सुपियल

1
अनिवार्य रूप से बार-बार पूछने वाला वास्तव में आपके प्रश्न का उत्तर नहीं देगा, वह सिक्के के फड़कने की आबादी के बारे में एक बयान देगा और आपको इस बात का अनुमान लगाने के लिए छोड़ देगा कि उस विशेष फ्लिप पर एक सिर की संभावना निहित आबादी में अनुपात के समान थी । लेकिन वह आपका बायेसियन अनुमान होगा, न कि उसका।
डिक्रान मार्सुपियल

1
@ ऐरॉन श्योर, आप कई चीजों के लिए "संभावना या तो 0 या 1" कह सकते हैं, लेकिन यह जवाब हमें बिल्कुल कुछ नहीं खरीदता है (उदाहरण के लिए, अगर हम एक ठोस सवाल का जवाब देना चाहते हैं कि हमें किसी गेम पर कितना दांव लगाना चाहिए या नहीं या नहीं हमें एक अंतरिक्ष यान लॉन्च करना चाहिए)। इसके अलावा, जो चीजें "हो सकती हैं" हैं: (1) सिक्का सिर से उतरा और आपने इसे कवर किया, (2) सिक्का जमीन से टकराया और आपने इसे कवर किया; कई "फ़्लिपिंग" और "ट्रायल" की "काल्पनिक आबादी" में, लगभग 50% परिणाम आपको देखने में आते हैं।
इलियट

14

प्रमुख अद्यतन, प्रमुख नया उत्तर। मुझे इस बिंदु को स्पष्ट रूप से संबोधित करने का प्रयास करने दें, क्योंकि यह वह जगह है जहाँ समस्या है:

"यदि आप तर्क देते हैं कि" अंतराल को देखने के बाद, संभावना की धारणा अब समझ में नहीं आती है ", तो ठीक है, चलो संभावना की व्याख्या में काम करते हैं जिसमें यह समझ में आता है।"

संभावना के नियम बदलते नहीं हैं लेकिन ब्रह्मांड के लिए आपका मॉडल है। क्या आप संभाव्यता वितरण का उपयोग करते हुए किसी पैरामीटर के बारे में अपने पूर्व विश्वासों को निर्धारित करने के लिए तैयार हैं? क्या डेटा को देखने के बाद उस संभाव्यता वितरण को अद्यतन करना उचित है? यदि आप ऐसा सोचते हैं तो आप जैसे बयान दे सकते हैं । मेरा पूर्व वितरण प्रकृति की वास्तविक स्थिति के बारे में मेरी अनिश्चितता का प्रतिनिधित्व कर सकता है , न केवल यादृच्छिकता के रूप में, जैसा कि आमतौर पर समझा जाता है - अर्थात, अगर मैं कलश में लाल गेंदों की संख्या के लिए एक पूर्व वितरण असाइन करता हूं, जिसका मतलब यह नहीं है कि मुझे लगता है कि संख्या लाल गेंदों की यादृच्छिक है। यह तय है, लेकिन मैं इसे लेकर अनिश्चित हूं।P(θ[L(X),U(X)]|X=x)

मेरे सहित कई लोगों ने यह कहा है, लेकिन अगर आप the एक यादृच्छिक चर नहीं कहना चाहते हैं तो कथन नहीं है। सार्थक। अगर मैं एक बार-बार आने वाला व्यक्ति हूं, तो मैं एक निश्चित मात्रा के रूप में इलाज कर रहा हूं और मैं इसकी संभावना वितरण का वर्णन नहीं कर सकता। क्यों? क्योंकि यह तय है, और मेरी संभावना की व्याख्या लंबे समय तक चलने वाली आवृत्तियों के संदर्भ में है। कलश में लाल गेंदों की संख्या कभी नहीं बदलती है। है क्या है। अगर मैं कुछ गेंदों को निकालता हूं तो मेरे पास एक यादृच्छिक नमूना है। मैं पूछ सकता हूं कि अगर मैं यादृच्छिक नमूनों का एक गुच्छा ले जाऊं तो क्या होगा - यह कहने के लिए, मैं बारे में बात कर सकता हूंP ( θ [ L ( X ) , U ( X ) ] | X = x ) θ θ θ P ( θ [ L ( X ) , U ( X ) ] )θP(θ[L(X),U(X)]|X=x)θθθP(θ[L(X),U(X)]) क्योंकि अंतराल नमूने पर निर्भर करता है, जो कि (इसके लिए प्रतीक्षा करें) यादृच्छिक है।

लेकिन आप ऐसा नहीं चाहते हैं। आप - क्या संभावना है कि मैंने अपने अवलोकन (और अब तय) नमूने के साथ इस अंतराल का निर्माण किया है। हालाँकि, एक बार जब आप पर मेरे लिए वातानुकूलित हो जाते हैं, तो एक बार-बार कहने वाला, यादृच्छिक कुछ भी नहीं होता है और स्टेटमेंट doesn ' टी किसी भी सार्थक तरीके से समझ में आता है।एक्स = एक्स पी ( θ [ एल ( एक्स ) , यू ( एक्स ) ] | एक्स = एक्स )P(θ[L(X),U(X)]|X=x)X=xP(θ[L(X),U(X)]|X=x)

बारे में एक बयान करने के लिए एकमात्र प्रिंसिपल तरीका (आईएमओ) एक (पूर्व) संभाव्यता वितरण के साथ एक पैरामीटर के बारे में हमारी अनिश्चितता का परिमाण करना है। बेयस प्रमेय के माध्यम से नई जानकारी के साथ उस वितरण को अपडेट करें। हर दूसरा दृष्टिकोण जो मैंने देखा है, वह बेयस की कमी है। आप निश्चित रूप से इसे लगातार दृष्टिकोण से नहीं कर सकते।P(θ[L(X),U(X)]|X=x)

यह कहना नहीं है कि आप बायेसियन परिप्रेक्ष्य से पारंपरिक निरंतरवादी प्रक्रियाओं का मूल्यांकन नहीं कर सकते हैं (अक्सर विश्वास अंतराल एक समान पुजारियों के तहत विश्वसनीय अंतराल हैं, उदाहरण के लिए) या कि एक बायसीवादी परिप्रेक्ष्य से बायेसियन अनुमानक / विश्वसनीय अंतराल का मूल्यांकन मूल्यवान है (मुझे लगता है कि यह हो सकता है)। यह कहना नहीं है कि शास्त्रीय / लगातार आंकड़े बेकार हैं, क्योंकि यह नहीं है। यह वही है, और हमें इसे और अधिक बनाने की कोशिश नहीं करनी चाहिए।

क्या आपको लगता है कि एक पैरामीटर को ब्रह्मांड के बारे में अपनी मान्यताओं का प्रतिनिधित्व करने के लिए पूर्व वितरण देना उचित है? यह आपकी टिप्पणियों से ऐसा लगता है कि आप करते हैं; मेरे अनुभव में ज्यादातर लोग इस बात से सहमत होंगे (कि मैंने अपनी टिप्पणी @G। जे। कर्न्स के जवाब में की है)। यदि ऐसा है, तो बायेसियन प्रतिमान बारे में बयान करने के लिए एक तार्किक, सुसंगत तरीका प्रदान करता है । लगातार दृष्टिकोण बस नहीं करता है।P(θ[L(X),U(X)]|X=x)


1
(+1) बहुत अच्छा किया, फिर से, और मृत-केंद्र पर हाजिर।

+1 ऊपर के रूप में एक ही टिप्पणी (जी। जे। कर्न्स का जवाब देखें); यह वास्तव में मददगार था।
इलियट

बाउंटी schmounty :) मुझे खुशी है कि आपने इसे मददगार पाया।
JMS

11

ठीक है, अब आप बात कर रहे हैं! मैंने अपने पिछले उत्तर को हटाने के लिए मतदान किया है क्योंकि यह इस प्रमुख-अद्यतन प्रश्न से कोई मतलब नहीं है।

रूढ़िवादी लगातार व्याख्या के तहत 95% विश्वास अंतराल की गणना करने वाले कंप्यूटर के साथ इस नए, अद्यतन प्रश्न में, यहां आपके सवालों के जवाब दिए गए हैं:

  1. नहीं।
  2. नहीं।
  3. एक बार अंतराल देखने के बाद, यह किसी भी अधिक यादृच्छिक नहीं है, और नहीं बदलता है। (हो सकता है कि अंतराल था ।) लेकिन θ परिवर्तन नहीं करता है, या तो, और कभी नहीं बदल गया है। (हो सकता है कि यह θ = 7 हो ।) संभावना 95% से 0% में बदल जाती है क्योंकि 95% अंतराल में कंप्यूटर कवर 7 की गणना करता है, लेकिन 100% अंतराल [ 1 , 3 ] 7 को कवर नहीं करता है।[1,3]θθ=7[1,3]

(वैसे, असली दुनिया में, प्रयोगकर्ता जानता है कभी नहीं है कि , जो प्रयोगकर्ता कभी पता नहीं कर सकते हैं सच संभावना है कि क्या इसका मतलब है [ 1 , 3 ] कवर θ शून्य या एक है। (एस) वह केवल कह सकते हैं कि यह एक या दूसरा होना चाहिए।) कि, प्लस प्रयोगकर्ता कह सकता है कि 95% कंप्यूटर का अंतराल θ कवर करता है , लेकिन हम पहले से ही जानते थे।θ=7[1,3]θθ

अपने प्रश्न की भावना पर्यवेक्षक के लिए वापस इशारा रहता है ज्ञान , और कैसे है कि जहां से संबंधित है निहित है। वह (संभवतः) यही कारण है कि आप पासवर्ड के बारे में बात कर रहे थे, कंप्यूटर के बारे में अंतराल की गणना के बिना इसे अभी तक देखने के बिना, आदि । मैं उत्तर देने के लिए अपनी टिप्पणी में देखा है कि यह असंतोषजनक / अनुचित लगता है 0 या 1 के लिए प्रतिबद्ध करने के लिए बाध्य किया जाना है, सब के बाद, हम क्यों विश्वास नहीं कर सकता यह है 87%, या 15 / 16 , या यहाँ तक कि 99% ?? ? लेकिन यह वास्तव में शक्ति है - और साथ ही एच्लीस की एड़ी - लगातार ढांचे की: पर्यवेक्षक का व्यक्तिपरक ज्ञान / विश्वास अप्रासंगिक है। यह सब मायने रखता है एक लंबी अवधि के सापेक्ष आवृत्ति। न कुछ ज्यादा, न कुछ कम।θ15/16

अंतिम बीटीडब्ल्यू के रूप में: यदि आप संभावना की अपनी व्याख्या को बदलते हैं (जो आपने इस प्रश्न के लिए नहीं करने के लिए चुना है), तो नए उत्तर हैं:

  1. हाँ।
  2. हाँ।
  3. संभावना बदल जाती है क्योंकि संभाव्यता = व्यक्तिपरक ज्ञान, या विश्वास की डिग्री, और पर्यवेक्षक का ज्ञान बदल गया। हम पूर्व / पीछे के वितरण के साथ ज्ञान का प्रतिनिधित्व करते हैं, और जैसे ही नई जानकारी उपलब्ध हो जाती है, पूर्व मोर्चे बाद में (बेयस नियम के माध्यम से)।

(लेकिन पूर्ण प्रकटीकरण के लिए, आपके द्वारा वर्णित सेटअप व्यक्तिपरक व्याख्या से बहुत अच्छी तरह से मेल नहीं खाता है। उदाहरण के लिए, हमारे पास आमतौर पर कंप्यूटर चालू करने से पहले 95% पूर्व विश्वसनीय अंतराल है, फिर हम इसे आग देते हैं और कंप्यूटर को देने के लिए काम करते हैं। हमें एक 95% पीछे का विश्वसनीय अंतराल है जो आमतौर पर पूर्व की तुलना में काफी पतला है। "


फिर! :) बहुत बढ़िया।
जेएमएस

3
मुझे सिर्फ यह बताना चाहिए कि संभावना के बायेसियन अंतर्वेशन जरूरी व्यक्तिपरक नहीं है, इसलिए यह वास्तव में लगातार दृष्टिकोण की ताकत नहीं है। उद्देश्य बायेसियन दृष्टिकोण के मामले में "एक सिक्का लैंडिंग की समस्या की संभावना", एक अनइनफॉर्मेटिव पूर्व का उपयोग करने से कोई भी विषय वस्तु शामिल नहीं है। बार-बार आने वाले दृष्टिकोण की असली ताकत गुणवत्ता नियंत्रण जैसी समस्याओं में निहित है, जहां दोहराया परीक्षणों और लंबे समय तक चलने वाली आवृत्तियों की बात करना स्वाभाविक है। इसमें केवल मुश्किलें होती हैं, जब आप किसी विशेष कार्यक्रम के बारे में सवाल करते हैं।
डिक्रान मार्सुपियल

@ जेएमएस, धन्यवाद। @ डिक्रान, कंप्यूटर स्क्रीन पर एक छोटे से बॉक्स में 544 पात्रों के साथ इसके बारे में बात करना मुश्किल है। संक्षेप में: मैं आपसे सहमत हूं कि "बायेसियन" शब्द "व्यक्तिपरक" का पर्याय नहीं है। और वहाँ कोई मतलब नहीं है नीचे कील करने की कोशिश कर रहा है जहां या तो दृष्टिकोण की असली ताकत निहित है। नीचे पंक्ति: हम सभी एक लंबे समय तक चलने वाली रिश्तेदार आवृत्ति पर सहमत हो सकते हैं, लेकिन अधिक बार नहीं, आपके पीछे का हिस्सा खदान से अलग होगा।

2
@ डिक्रान मार्सुपियल आप एक अच्छा बिंदु बनाते हैं। मैं केवल यह जोड़ना चाहता हूं कि एक बार जब हम पिछले खिलौना की समस्याओं को वास्तविक रूप से लागू मॉडलिंग में स्थानांतरित करते हैं तो अक्सर ऐसा होता है कि वास्तव में महत्वपूर्ण विषय वस्तु के माध्यम से आता है कि हम कैसे संभावना को निर्दिष्ट करते हैं, जरूरी नहीं कि पूर्व वितरण स्वयं (क्या वे अवलोकन वास्तव में विनिमेय हैं? गाऊसी? आदि)। इस तरह से विषय-वस्तु को मॉडल-आधारित आँकड़ों, बायेसियन और अक्सरवादी समान रूप से बनाया जाता है।
JMS

+ सुंदर जवाब के लिए धन्यवाद। यह निश्चित रूप से एक इनाम का हकदार है, लेकिन राजनीतिक होने से बचने के लिए, मैंने ऊपर जाकर समाप्त कर दिया।
इलियट

6

मैं अपने दो सेंट में फेंक दूंगा (शायद पूर्व के कुछ जवाबों को फिर से तैयार करना)। एक निरंतरवादी के लिए, आत्मविश्वास अंतराल स्वयं एक दो-आयामी यादृच्छिक चर में है: यदि आप प्रयोग को एक गजियन बार फिर से करेंगे, तो आप जिस आत्मविश्वास अंतराल का अनुमान लगाएंगे (यानी: प्रत्येक बार अपने नए पाए गए डेटा से गणना करें) हर बार अलग होगा । जैसे, अंतराल की दो सीमाएं यादृच्छिक चर हैं।

95% CI का मतलब है, आश्वासन से ज्यादा कुछ नहीं (इस सीआई को देने वाली आपकी सभी धारणाएँ सही हैं) कि रैंडम चर के इस सेट में 95% मामलों में सही मूल्य (बहुत लगातार अभिव्यक्ति) होगा।

आप मानक सामान्य वितरण से 100 ड्रॉ के मतलब के लिए विश्वास अंतराल की आसानी से गणना कर सकते हैं। फिर, यदि आप उस मानक सामान्य वितरण से 10000 गुना 100 मान खींचते हैं, और हर बार मीन के लिए विश्वास अंतराल की गणना करते हैं, तो आप वास्तव में देखेंगे कि 0 लगभग 9500 बार है।

तथ्य यह है कि आप है (आपका वास्तविक डेटा से) सिर्फ एक बार एक विश्वास अंतराल बनाया वास्तव में सही मूल्य में होने की संभावना को कम करता है कि या तो 0 या 1 के अंतराल, लेकिन यह एक के रूप में विश्वास अंतराल की संभावना नहीं बदलता है वास्तविक मान को समाहित करने के लिए यादृच्छिक चर।

तो, निचला रेखा: किसी भी (यानी औसत पर) 95% विश्वास अंतराल जिसमें सही मूल्य (95%) होता है, बदलता नहीं है, और न ही सच्चे मूल्य वाले के लिए किसी विशेष अंतराल (CI या जो भी) की संभावना नहीं है (० या १)। अंतराल की संभावना कंप्यूटर जानता है, लेकिन आप वास्तव में 0 या 1 नहीं है (क्योंकि यह एक विशेष अंतराल है), लेकिन जब से आप इसे नहीं जानते हैं (और, लगातार फैशन में, इस एक ही अंतराल की पुनर्गणना करने में असमर्थ हैं असीम रूप से एक ही डेटा से कई बार), आप सभी के लिए जाना है किसी भी अंतराल की संभावना है।


मजेदार पक्ष नोट: इस साइट की वर्तनी जांचकर्ता अक्सर शब्द को घुंघराले अंडरलाइनिंग के योग्य पाता है। क्या इस साइट को गुप्त रूप से बायेसियन द्वारा महारत हासिल है? ओह, मुझे लगता है कि यह नहीं है, क्योंकि Bayesians अपने घुंघराले रेखांकित किया है :-)
निक Sabbe

4

कारण यह है कि आत्मविश्वास अंतराल में यह निर्दिष्ट नहीं किया गया है कि "संभावना है कि सही पैरामीटर अंतराल में निहित है" क्योंकि अंतराल निर्दिष्ट होने के बाद, पैरामैटर या तो इसमें निहित है या यह नहीं है। हालांकि, उदाहरण के लिए 95% आत्मविश्वास अंतराल के लिए, आपके पास एक आत्मविश्वास अंतराल बनाने का 95% मौका है जिसमें मूल्य शामिल है। यह समझ पाने के लिए एक बहुत ही कठिन अवधारणा है, इसलिए मैं इसे अच्छी तरह से समझ नहीं सकता। अधिक स्पष्टीकरण के लिए http://frank.itlab.us/datamodel/node39.html देखें ।


2
मान लीजिए कि आप एक विश्वास अंतराल की गणना करने के लिए एक कंप्यूटर प्रोग्राम करते हैं, लेकिन आप आउटपुट को नहीं देखते हैं। इससे पहले कि आप आउटपुट को देखें, आप जानते हैं कि 95% संभावना है कि अंतराल में सही पैरामीटर शामिल है (जैसे कि इससे पहले कि आप एक सिक्का फ्लिप का परिणाम देख चुके हैं, आपको पता है कि सिर के 50% संभावना है)। बाद में आउटपुट को देखने का यह तरीका किस तरह से इस संभावना को बदल देता है, यह देखते हुए कि आप पहली बार में सही पैरामीटर नहीं जानते हैं (मैं सहमत हूं कि एक सिक्के के परिणाम को देखकर फ्लिप 50 से सिर की संभावना को बदल देता है या तो 1 या 0)?
इलियट

इसके अलावा, जब मैं मानता हूं कि एक भेद है, तो मैं सोच रहा हूं कि मेरे "तर्क" के साथ क्या गलत है यह दिखाते हुए कि वे एक ही बात कर रहे हैं।
इलियट

2
@Elliott आपके प्रश्न इस सादृश्य के समान प्रतीत होते हैं: आप एक उचित सिक्का फ्लिप करते हैं। एर्गो, सिर की संभावना 50% है। अब आप सिक्के को देखें और यह सिर है। किस तरह से यह सिर की संभावना को बदलता है? इसका उत्तर यह है कि यह संभव नहीं है, क्योंकि संभावना सिक्का-फ़्लिपिंग प्रक्रिया को संदर्भित करती है, परिणाम को नहीं। यह मुझे प्रतीत होता है कि आप जिस प्रतिरूप को संदर्भित करते हैं, वह इसी तरह से काम करता है: प्रक्रिया में पैरामीटर को कवर करने का 50% मौका हो सकता है, लेकिन इस तथ्य के बाद यह सत्यापित करना संभव हो गया है कि पैरामीटर वास्तव में कवर किया गया है। तो क्या?
whuber

मैं इस संभावना को बदलने के बारे में बात नहीं कर रहा हूं कि एक निष्पक्ष सिक्का प्रमुख होगा; इसके बजाय, मैं इस संभावना को बदलने की बात कर रहा हूं कि यह विशेष सिक्का प्रमुख होगा। के बाद मैं इसे फ़्लिप किया है और इससे पहले कि मैं इसे देखा है, मैं तर्क है कि सवाल में संभावना 50% है क्योंकि इस तरह के मामलों में से लगभग आधे सिर के साथ एक सिक्का शामिल है। दूसरी ओर, जब मैंने इसे देखा है और सिर देखा है, तो ऐसे मामलों में 100% में एक सिक्का होता है, जिसमें सिर ऊपर होता है (जब मैं सिक्के को देखता था और सिर नहीं देखता था)।
इलियट

मैं मानता हूं कि इस तथ्य के बाद, यह सत्यापित करना संभव हो सकता है कि पैरामीटर को कवर किया गया है। मेरा जवाब "तो क्या हुआ?" "तो मेरा उपरोक्त तर्क (मूल प्रश्न में) गलत होना चाहिए, और मैं सोच रहा हूं कि इसमें गलत क्या है"।
इलियट

4

मुझे नहीं लगता कि कोई व्यक्ति कह सकता है कि किसी विशेष नमूने के लिए विश्वास अंतराल में झूठ बोलने वाले किसी आंकड़े के सही (जनसंख्या) मूल्य की कोई संभावना है। यह या तो है, या यह नहीं है, लेकिन किसी विशेष घटना के लिए कोई लंबी अवधि की आवृत्ति नहीं है, बस घटनाओं की आबादी जो आपको एक सांख्यिकीय प्रक्रिया के बार-बार प्रदर्शन से मिलेगी। यही कारण है कि हमें "95% आत्मविश्वास अंतरालों जैसे बयानों के साथ चिपकना पड़ता है, जिसमें निर्मित आँकड़ों का सही मूल्य होगा", लेकिन "एपीपी% संभावना नहीं है कि असली मूल्य इस विशेष के लिए गणना आत्मविश्वास अंतराल में निहित है" नमूना "। यह पी के किसी भी मूल्य के लिए सच है, यह वास्तव में संभावना क्या है की लगातार परिभाषा के साथ संभव नहीं है। हालांकि एक बायेसियन एक विश्वसनीय अंतराल का उपयोग करके इस तरह का बयान दे सकता है।


3

E[a,b]

E~(L(X),U(X))

संपादित करें: @ जी। जे कर्न्स तर्क मुझसे बेहतर बनाता है, और तेजी से टाइप करता है, इसलिए शायद बस साथ चले :)


[a,b]

2
|

मुझे नहीं पता, तुम्हारा मौके पर है। :-)

2

E[a,b]ECCP(E|C)=P(E)P(E|C)=P(E)

P(E|C)=1P(E|C)=0


यह देखते हुए कि मैंने सी को इस घटना के रूप में परिभाषित किया है कि यह विशेष अंतराल, [ए, बी], में सच्चा पैरामीटर है, मुझे यकीन नहीं है कि मैं सहमत हूं कि ई और सी / सी 'स्वतंत्र हैं: यह जानते हुए कि सी हुई गारंटी है कि ई हुआ। ।
इलियट

लेकिन सी एक यादृच्छिक चर है! सब कुछ होने के बाद आप इन सभी घटनाओं की परिभाषा बदल रहे हैं। एक और तरीका रखो, यदि आप सी को इस विशेष घटना को परिभाषित कर रहे हैं, तो सी अब एक आत्मविश्वास अंतराल नहीं है।
रांगेयिन

2
समस्या यह है कि यदि सी ऐसी घटना है कि अंतराल में प्रयोग के इस विशेष रन में सही पैरामीटर है, तो इसमें एक लंबी रन आवृत्ति नहीं है (यह विशेष रन केवल एक बार हो सकता है), और इस प्रकार आप असाइन नहीं कर सकते इसके लिए एक निरंतर संभावना। यही कारण है कि दोहराया प्रयोगों की आबादी के संदर्भ में एक निरंतर विश्वास अंतराल की परिभाषा है। आप बार-बार सेटिंग करने के लिए बायेसियन तर्क को लागू करते दिखाई देते हैं, और संभावना की परिभाषाओं का गलत मिलान होता है।
डिक्रान मार्सुपियल

यहाँ एक और तरीका है इसे देखो। आप जो कर रहे हैं, वह निम्नलिखित है: एक आत्मविश्वास अंतराल [ए, बी] प्राप्त करने के लिए गणना चलाएँ। सी को परिभाषित करें कि यह विशेष विश्वास अंतराल [ए, बी] में सही पैरामीटर है। ई को भी परिभाषित करें कि यह विशेष अंतराल [ए, बी] सही पैरामीटर है। इस प्रकार, ई और सी एक ही घटना है!
रांगेयिन

यही आप वास्तव में कर रहे हैं। ऐसा लगता है कि आपको लगता है कि आप निम्नलिखित कर रहे हैं (जो आप नहीं हैं): एक अंतराल [ए, बी] पाने के लिए गणना # 1 चलाएं। ई को परिभाषित करें कि यह विशेष अंतराल [ए, बी] सही पैरामीटर है। अगला, गणना # 1 के बारे में भूल जाते हैं, और सी को उस घटना के रूप में परिभाषित करते हैं जो किसी अन्य गणना किए गए अंतराल [a, b '] में सही पैरामीटर है। इस मामले में, ई और सी स्वतंत्र हैं।
राएगटिन

2

यहाँ इतने लंबे स्पष्टीकरण हैं कि मेरे पास उन्हें पढ़ने का समय नहीं है। लेकिन मुझे लगता है कि मूल प्रश्न का उत्तर छोटा और मीठा हो सकता है। यह एक संभावना के बीच का अंतर है जो डेटा पर बिना शर्त है। डैट्स को इकट्ठा करने से पहले 1-अल्फा की संभावना यह संभावना है कि अच्छी तरह से परिभाषित प्रक्रिया में पैरामीटर शामिल होगा। जब आप डेटा एकत्र कर लेते हैं और उस विशिष्ट अंतराल को जानते हैं जो आपने उत्पन्न किया है तो अंतराल तय हो गया है और इसलिए चूंकि पैरामीटर एक स्थिर है यह सशर्त संभावना या तो 0 या 1 है। लेकिन जब से हम पैरामीटर का वास्तविक मूल्य भी नहीं जानते हैं डेटा एकत्र करने के बाद हमें नहीं पता कि यह कौन सा मूल्य है।

माइकल चेर्निक द्वारा लिखित रूप में पोस्ट की विस्तार से टिप्पणी:

इसके लिए एक पैथोलॉजिकल अपवाद है जिसे सही अनुमान कहा जा सकता है। मान लीजिए कि हमारे पास X (n) = pX (n-1) + en द्वारा दिया गया पहला ऑर्डर ऑटोरेजेटिव प्रोसेस है। यह स्थिर है इसलिए हम जानते हैं कि p 1 या -1 नहीं है और निरपेक्ष मूल्य में <1 है। अब en स्वतंत्र रूप से मिश्रित वितरण के साथ वितरित किया जाता है एक सकारात्मक संभावना q है जो en = 0 है

इसके लिए एक पैथोलॉजिकल अपवाद है जिसे सही अनुमान कहा जा सकता है। मान लीजिए कि हमारे पास X (n) = pX (n-1) + en द्वारा दिया गया पहला ऑर्डर ऑटोरेजेटिव प्रोसेस है। यह स्थिर है इसलिए हम जानते हैं कि p 1 या -1 नहीं है और निरपेक्ष मूल्य में <1 है।

अब en स्वतंत्र रूप से एक मिश्रित वितरण के साथ वितरित किया जाता है एक सकारात्मक संभाव्यता q होती है जो en = 0 होती है और प्रायिकता 1-q के साथ इसका पूर्ण रूप से निरंतर वितरण होता है (यह कहें कि घनत्व 0. से दूर बंधे अंतराल में गैर शून्य है। क्रमिक रूप से समय श्रृंखला से डेटा एकत्र करें और मूल्यों की प्रत्येक क्रमिक जोड़ी के लिए एक्स (आई) / एक्स (आई -1) द्वारा अनुमान लगाएं। अब जब ईआई = 0 का अनुपात पी के बराबर होगा।

चूँकि q 0 से अधिक है, अंततः अनुपात एक मान को दोहराएगा और उस मान को पैरामीटर p का सटीक मान होना चाहिए क्योंकि यदि यह ei का मान नहीं है जो कि 0 नहीं है तो प्रायिकता 0 और ei / x के साथ दोहराएगा (i) -1) नहीं दोहराएगा।

इसलिए अनुक्रमिक रोक नियम नमूना है जब तक कि अनुपात दोहराता है तब पी के अनुमान के रूप में दोहराया मूल्य का उपयोग करें। चूँकि यह आपके द्वारा निर्मित अंतराल है जो इस अनुमान पर केंद्रित है और इसमें सच्चे पैरामीटर को शामिल करने की संभावना 1 है। यद्यपि यह एक रोगात्मक उदाहरण है जो व्यावहारिक नहीं है, लेकिन त्रुटि वितरण के लिए आवश्यक गुणों के साथ स्थिर स्टोचस्टिक प्रक्रियाओं का अस्तित्व है


2
क्या आपने अपने उत्तर पर इन कई टिप्पणियों के दौरान वर्णित उदाहरण को लागू करने पर विचार किया है?
मैक्रों

@ मिचेल मैं मैक्रों की दूसरी टिप्पणी करूंगा। कृपया ध्यान दें कि आम तौर पर टिप्पणियों को अन्य उपयोगकर्ताओं के साथ बातचीत करने का एक तरीका माना जाता है (जैसे, स्पष्टीकरण का अनुरोध करते समय, आदि), और किसी भी स्थिति में कभी-कभी ' स्टैक एक्सचेंज में तीसरे श्रेणी के नागरिक ' के रूप में देखा जाता है । हालांकि, हमारे सबसे हालिया विनिमय के बाद, मैं आपको इस बारे में निर्णय लेने की अनुमति दूंगा कि टिप्पणियों की इस श्रृंखला को कैसे आगे बढ़ाया जाए। यह टिप्पणी यहां मिली टिप्पणियों की एक और श्रृंखला पर लागू होती है
chl

मैं उत्तरों में टिप्पणी नहीं करता क्योंकि उत्तर देने के लिए एक नीति प्रतीत होती है, जिसमें उन पर बहुत चर्चा होती है, जब कोई न्याय करता है कि उत्तर वास्तव में प्रश्न का उत्तर नहीं देता है। तो जवाब देने के लिए उत्तर हैं और टिप्पणियां टिप्पणियों के तहत जाती हैं। मेरी टिप्पणी चरित्र सीमा से अधिक है इसलिए मैं कई का उपयोग करता हूं।
माइकल चेरिक

@MichaelChernick ऐसी कोई नीति नहीं है, इस प्रकार मैंने आपकी टिप्पणियों को पोस्ट में शामिल कर लिया है।

1
@MichaelChernick, मैं इस साइट पर लगभग एक साल से नियमित रूप से पोस्ट कर रहा हूं और मैंने कभी किसी को यह सुझाव देते हुए नहीं सुना कि मध्यस्थ अत्याचारी थे या साइट के नियम भ्रामक थे। आपके द्वारा पुन: चलाए जाने वाले मुद्दे: आपकी पोस्ट ऐसी चीज़ें हैं, जिनकी अक्सर FAQ में स्पष्ट रूप से चर्चा की जाती है।
मैक्रों

1

कई सवालों और प्रतिक्रियाओं के बारे में दो अवलोकन जो अभी भी मदद कर सकते हैं।

भ्रम का एक हिस्सा संभाव्यता सिद्धांत के कुछ गहरे गणित को चमकाने से आता है, जो कि, 1940 के दशक तक एक गणितीय गणितीय आधार पर नहीं था। यह नमूना स्पेस, प्रायिकता रिक्त स्थान इत्यादि का गठन करता है।

सबसे पहले, आपने कहा था कि एक सिक्का फ्लिप होने के बाद हम जानते हैं कि 0% संभावना है कि यह ऊपर नहीं आया अगर यह सिर के ऊपर आ गया। उस समय यह संभावना के बारे में बात करने का कोई मतलब नहीं है; क्या हुआ, और हम इसे जानते हैं। संभावना भविष्य में अज्ञात के बारे में है, वर्तमान में ज्ञात नहीं है।

इस बारे में एक छोटी सी पुष्टि के रूप में कि शून्य संभावना का वास्तव में क्या मतलब है, इस पर विचार करें: हम मानते हैं कि एक उचित गणना में सिर के आने की 0.5, और आने वाली पूंछ की 0.5 की संभावना है। इसका मतलब यह है कि या तो सिर या पूंछ आने की 100% संभावना है , क्योंकि वे परिणाम MECE (पारस्परिक रूप से अनन्य और पूरी तरह से संपूर्ण) हैं। हालांकि, शून्य प्रतिशत में परिवर्तन होता है, हालांकि, सिर और पूंछ की रचना : हमारे 'सिर' और 'पूंछ' की धारणा यह है कि वे परस्पर अनन्य हैं। इस प्रकार, यह शून्य प्रतिशत संभावना है क्योंकि यह उस तरह से असंभव है जैसा हम सोचते हैं (या परिभाषित करते हैं) 'सिक्का उछालना'। और टॉस से पहले और बाद में यह असंभव है।

इस के लिए एक और परिणाम, कुछ भी है कि, नहीं है परिभाषा के द्वारा के रूप में, असंभव है संभव। वास्तविक दुनिया में, मुझे नफरत है जब वकील पूछते हैं "क्या यह संभव नहीं है कि आपने इस दस्तावेज़ पर हस्ताक्षर किए और इसके बारे में भूल गए?" क्योंकि प्रश्न की प्रकृति से उत्तर हमेशा 'हां' होता है। उस मामले के लिए, इस सवाल का जवाब 'हां' भी है "क्या यह संभव नहीं है कि आपको डीमैटरियलाइजेशन के माध्यम से ग्रह रेमुलक 4 में ले जाया जाए और कुछ करने के लिए मजबूर किया जाए और फिर इसे बिना किसी स्मृति के वापस ले जाया जाए?" संभावना बहुत कम हो सकती है, लेकिन जो असंभव नहीं है वह संभव है। प्रायिकता की हमारी नियमित अवधारणा में, जब हम सिक्का उछालने की बात करते हैं, तो यह सिर पर आ सकता है; यह पूंछ ऊपर आ सकता है; और यह अंत तक या किसी भी तरह से खड़ा हो सकता है, जैसे कि अगर हम एक अंतरिक्ष यान में घुस गए थे, जबकि नशा किया गया था और कक्षा में लिया गया था) हमेशा के लिए हवा में तैरते हैं। लेकिन, टॉस से पहले या बाद में, एक ही समय में पूंछ: वे प्रयोग के नमूना स्थान में परस्पर अनन्य परिणाम हैं ('संभावना नमूना रिक्त स्थान' और 'सिग्मा-अल्जेब्रा' देखें)।

दूसरा, विश्वास अंतराल पर इन सभी बायेसियन / फ़्रीक्वेंटिस्ट दर्शन पर, यह सच है कि यह आवृत्तियों से संबंधित है यदि कोई व्यक्ति एक व्यक्तिवादी के रूप में कार्य कर रहा है। इसलिए, जब हम कहते हैं कि नमूना और अनुमानित माध्य के लिए विश्वास अंतराल 95% है, तो हम यह नहीं कह रहे हैं कि हम 95% निश्चित हैं 'वास्तविक' मूल्य सीमा के बीच स्थित है। हम यह कह रहे हैं कि, यदि हम इस प्रयोग को बार-बार दोहरा सकते हैं, तो 95% बार हम पाएंगे कि इसका मतलब वास्तव में सीमा के बीच था। जब हम इसे एक रन के साथ करते हैं, हालांकि, हम एक मानसिक शॉर्टकट ले रहे हैं और कह रहे हैं कि 'हम 95% निश्चित हैं कि हम सही हैं'।

वास्तव में, यह मत भूलो कि मानक सेटअप एक प्रयोग के आधार पर एक परिकल्पना परीक्षण पर क्या है। अगर हम जानना चाहते हैं कि क्या एक पौधे की वृद्धि हार्मोन पौधों को तेजी से बढ़ता है, तो शायद हम पहले 6 महीने के विकास के बाद टमाटर के औसत आकार का निर्धारण करते हैं। फिर हम दोहराते हैं, लेकिन हार्मोन के साथ, और औसत आकार प्राप्त करते हैं। हमारी अशक्त परिकल्पना है 'हार्मोन काम नहीं करता', और हम परीक्षण करते हैं । लेकिन, अगर परीक्षण किए गए पौधे औसत रूप से बड़े हैं, तो 99% आत्मविश्वास के साथ, इसका मतलब है कि 'पौधों के कारण हमेशा यादृच्छिक भिन्नता होगी और हम कितना सही वजन करते हैं, लेकिन यादृच्छिकता की मात्रा जो यह समझाती है वह एक से कम होगी। सौ में समय। "


1

इस मुद्दे को पूर्व और पीछे की संभावना के भ्रम के रूप में या शायद कुछ यादृच्छिक चर के संयुक्त वितरण को न जानने के असंतोष के रूप में चित्रित किया जा सकता है।

कंडीशनिंग

n1nXYXYP(X=xY=y)=1/(n(n1))x,yN:={1,,n}xyP(X=x)=1/nP(Y=x)=1/nxN

tP(X=x)=1/nxNxNX=xP(X=x|Y=t)=P(X=xY=t)/P(Y=t)xt1/(n1)x=t0X=xY=tX=xX=xY=tP(X=x)=P(Y=x)=1/nxN

सबूत पर कंडीशनिंग का मतलब सबूतों की अनदेखी करना नहीं है। हालाँकि, हम केवल इस बात पर शर्त लगा सकते हैं कि संभाव्य मॉडल में क्या अभिव्यक्त होता है। कलश से दो गेंदों के साथ हमारे उदाहरण में, हम मौसम पर या आज हमें कैसा महसूस कर रहे हैं, इस पर शर्त नहीं लगा सकते। इस मामले में, हमारे पास यह मानने का कारण है कि इस तरह के प्रयोग के लिए प्रासंगिक सबूत हैं, हमें औपचारिक घटनाओं के रूप में इस साक्ष्य को व्यक्त करने की अनुमति देने के लिए पहले अपना मॉडल बदलना होगा।

CC=1X<YP(C=1)=1/2tP(C=1|Y=t)=(t1)/(n1)P(C=1|Y=1)=0C=1P(C=1|Y=n)=1C=1P(C=1)=1/2

विश्वास अंतराल

X=(X1,,Xn)n(l,u)γXluRnθRP(l(X)θu(X))γ

C(l,u)C=1l(X)θu(X)P(C=1)γ

x=(x1,,xn)RnxiXiiC=1δ:=P(C=1|X=x)01(C=1X=x)((l(x)θu(x))X=x)l(x)θu(x)δ=0l(x)θu(x)X=xδ=1l(x)u(x)xδ{0,1}

P(C=1)γC=1x[l(x),u(x)][l(x),u(x)]θγ, का अर्थ होगा इस साक्ष्य को स्वीकार करना और साथ ही इसे अनदेखा करना।

अधिक सीखना, कम जानना

δXYxRP(X=x)P(Y=x)P(X=xY=y)x,yR(X,Y)

Y=7XP(X=x)x(x,7)xRxP(X=x)Y=7Y=77P(X=x)X=xP(X=x|Y=7)=P(X=xY=7)/P(Y=7)

YX


0

अगर मैं कहता हूं कि xbar - 2sd (x) और xbar + 2sd (X) के बीच का निक्स की संभावना अतीत में दिए गए कुछ गेम के बारे में .95 है, तो यह एक उचित कथन है जो बास्केटबॉल स्कोर के वितरण के बारे में कुछ विशेष वितरण धारणा है। । अगर मैं गेम के कुछ सैंपल दिए गए अंकों के बारे में डेटा इकट्ठा करता हूं और उस अंतराल की गणना करता हूं, तो उस अंतराल में जिस संभावना से उन्होंने स्कोर किया था, वह अतीत में दिए गए किसी दिन स्पष्ट रूप से शून्य या एक है, और आप यह जानने के लिए गेम परिणाम को Google कर सकते हैं। गैर-शून्य या लगातार व्यक्ति के लिए एक संभावना को बनाए रखने की एकमात्र धारणा बार-बार नमूने से आती है, और एक विशेष नमूने के अंतराल के अनुमान की प्राप्ति वह जादू बिंदु है जहां या तो ऐसा हुआ या उसने उस नमूने का अंतराल अनुमान नहीं दिया । यह वह जगह नहीं है जहाँ आप पासवर्ड टाइप करते हैं,

यह वही है जो डिक्रान ऊपर बहस करता है, और मैंने उसका जवाब दिया है। बिंदु जब बार-बार नमूने के विचार से बाहर हो जाते हैं, तो वह बिंदु होता है बार-बार होने वाले प्रतिमान में, जहां गैर-असतत संभावना अचूक हो जाती है , न कि जब आप पासवर्ड को ऊपर दिए गए उदाहरण के अनुसार टाइप करते हैं, या जब आप मेरे उदाहरण के उदाहरण में Google को परिणाम देते हैं निक्स खेल, लेकिन बिंदु जब आपके नमूनों की संख्या = 1।


0

मोडलिंग

S=(Ω,Σ,P)EΣP(E)ESS

चरण (1) कुछ लेवे की अनुमति दे सकता है। मॉडलिंग की उपयुक्तता की कभी-कभी कुछ घटनाओं की संभावना की तुलना करके परीक्षण किया जा सकता है कि हम सहज रूप से क्या उम्मीद करेंगे। विशेष रूप से, कुछ सीमांत या सशर्त संभावनाओं को देखकर यह अंदाजा लगाने में मदद मिल सकती है कि मॉडलिंग कितना उपयुक्त है।

X1,,XnDist(θ)θR

आत्मविश्वास अंतराल अनुमानक

γLRRnP(L(X)θR(X))γX=(X1,,Xn)L(X)R(X)xRnL(x)θR(x)

पसंद

γ1γ2γ1<γ2ड्रा होने पर पहले वाले की तुलना में विजयी टिकट होने की अधिक संभावना है। अवलोकनीय प्रक्रियाओं के संभाव्य गुणों के आधार पर विभिन्न अवलोकनों (इस उदाहरण में दो टिकट) के बारे में एक प्राथमिकता जो अवलोकनों को उत्पन्न करती है वह ठीक है। ध्यान दें कि हम यह नहीं कहते हैं कि किसी भी टिकट पर विजयी टिकट होने की अधिक संभावना है। यदि हम कभी ऐसा कहते हैं, तो बोलचाल में "संभावना" के साथ, जिसका अर्थ कुछ भी हो सकता है, इसलिए यहां सबसे अच्छा बचा जाता है।

0.95

एक साधारण से उदाहरण के साथ

θP(θ=0)=P(θ=1)=1/2ϑRθ=ϑX1,,XnN(ϑ,1)L,RγϑRP(L(X)ϑR(X)|θ=ϑ)γP(L(X)θR(X))γ

xRn(X1,,Xn)θL(x)R(x)P(L(x)θR(x)|X=x)fμnμσ=1

P(L(x)θR(x)|X=x)={f0(x)f0(x)+f1(x)if L(x)0R(x)<1f1(x)f0(x)+f1(x)if 0<L(x)1R(x)1if L(x)0 and 1R(x)0else
γθL(X)θR(X)γ

θxx{μ0,μ1}={0,1}

P(θ=μ0|X=x)=fμ0(x)fμ0(x)+fμ1(x)

0

अगर हम कह सकते हैं "संभावना है कि असली पैरामीटर इस विश्वास अंतराल में है" तो हम नमूने के आकार को ध्यान में नहीं रखेंगे। कोई फर्क नहीं पड़ता कि नमूना कितना बड़ा है, जब तक माध्य समान है, तब आत्मविश्वास अंतराल समान रूप से चौड़ा होगा। लेकिन जब हम कहते हैं "अगर मैं इसे 100 बार दोहराता हूं, तो मैं उम्मीद करूंगा कि 95 मामलों में सही पैरामीटर अंतराल के भीतर झूठ होगा", हम नमूना आकार के आकार को ध्यान में रख रहे हैं, और यह सुनिश्चित करें कि हमारा अनुमान कैसा है । नमूना आकार जितना बड़ा होगा, कम विचरण का अर्थ अनुमान होगा। तो यह बहुत भिन्न होता है, और जब हम 100 बार प्रक्रिया दोहरा रहे हैं, तो हमें यह सुनिश्चित करने के लिए एक बड़े अंतराल की आवश्यकता नहीं है कि 95 मामलों में सही पैरामीटर अंतराल में है।


ध्यान रखें कि आत्मविश्वास अंतराल एक लगातार अवधारणा है।
माइकल चेरिक
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.