एक विश्वास अंतराल और एक विश्वसनीय अंतराल के बीच अंतर क्या है?


229

जोरिस और श्रीकांत की विनिमय यहाँ (फिर) सोच विश्वास के अंतराल और विश्वसनीय अंतराल के बीच अंतर के लिए अपने आंतरिक स्पष्टीकरण सही लोगों थे मुझे मिल गया। आप अंतर कैसे समझाएंगे?

जवाबों:


313

मैं श्रीकांत के स्पष्टीकरण से पूरी तरह सहमत हूं। इस पर अधिक हेरास्टिक स्पिन देने के लिए:

शास्त्रीय दृष्टिकोण आम तौर पर मानते हैं कि दुनिया एक तरह से है (उदाहरण के लिए, एक पैरामीटर का एक विशेष वास्तविक मूल्य है), और उन प्रयोगों का संचालन करने की कोशिश करें जिनके परिणामस्वरूप निष्कर्ष - कोई बात नहीं पैरामीटर का सही मूल्य - कम से कम कुछ न्यूनतम के साथ सही होगा संभावना।

नतीजतन, एक प्रयोग के बाद हमारे ज्ञान में अनिश्चितता व्यक्त करने के लिए, अक्सर दृष्टिकोण "आत्मविश्वास अंतराल" का उपयोग करता है - कुछ न्यूनतम संभाव्यता के साथ पैरामीटर का सही मूल्य शामिल करने के लिए डिज़ाइन किए गए मानों की एक श्रृंखला, 95% कहते हैं। एक निरंतरवादी प्रयोग और 95% आत्मविश्वास अंतराल प्रक्रिया को डिजाइन करेगा ताकि प्रत्येक 100 प्रयोगों में से समाप्त होने के लिए शुरू हो, जिसके परिणामस्वरूप कम से कम 95 अंतरालों को पैरामीटर के सही मूल्य को शामिल करने की उम्मीद होगी। अन्य 5 थोड़े गलत हो सकते हैं, या वे पूर्ण बकवास हो सकते हैं - औपचारिक रूप से बोलना ठीक है, जहां तक ​​दृष्टिकोण का संबंध है, जब तक कि 100 में से 95 निष्कर्ष सही हैं। (निश्चित रूप से हम उन्हें थोड़ा गलत होना पसंद करेंगे, कुल बकवास नहीं।)

बायेसियन दृष्टिकोण समस्या को अलग तरीके से तैयार करते हैं। यह कहने के बजाय कि पैरामीटर के पास केवल एक (अज्ञात) सही मूल्य है, एक बायेसियन विधि कहती है कि पैरामीटर का मूल्य निश्चित है लेकिन कुछ संभाव्यता वितरण से चुना गया है - जिसे पूर्व संभाव्यता वितरण के रूप में जाना जाता है। (यह कहने का एक और तरीका यह है कि किसी भी माप को लेने से पहले, बायेसियन एक संभावना वितरण प्रदान करता है, जिसे वे एक विश्वास राज्य कहते हैं, पैरामीटर का सही मूल्य क्या होता है।) यह "पूर्व" ज्ञात हो सकता है (कल्पना करने की कोशिश कर रहा है) ट्रक के आकार का अनुमान लगाने के लिए, यदि हम DMV से ट्रक के आकार के समग्र वितरण को जानते हैं) या यह पतली हवा से निकाली गई धारणा हो सकती है। बायेसियन निष्कर्ष सरल है - हम कुछ डेटा एकत्र करते हैं, और उसके बाद डेटा के पैरामीटर GIVEN के विभिन्न मूल्यों की संभावना की गणना करते हैं। इस नई संभावना वितरण को "पोस्टीरियर प्रायिकता" या केवल "पोस्टीरियर" कहा जाता है। बायेसियन दृष्टिकोण पश्च-संभाव्यता वितरण पर मूल्यों की एक श्रृंखला देकर उनकी अनिश्चितता को संक्षेप में प्रस्तुत कर सकता है जिसमें 95% संभावना शामिल है - इसे "95% विश्वसनीयता अंतराल" कहा जाता है।

एक बायेसियन पार्टिसन इस तरह के लगातार विश्वास अंतराल की आलोचना कर सकता है: "तो क्या हुआ अगर 100 प्रयोगों में से 95 में एक आत्मविश्वास अंतराल उत्पन्न होता है जिसमें सच्चा मूल्य शामिल है? मैं 99 प्रयोगों के बारे में परवाह नहीं करता हूं I DIDN'T DO? मैं इस प्रयोग के बारे में परवाह करता हूं I DID DO। आपका नियम 100 में से 5 को पूरी तरह से बकवास करने की अनुमति देता है [नकारात्मक मान, असंभव मान] जब तक कि अन्य 95 सही नहीं होते हैं, यह हास्यास्पद है। "

बार-बार मरने वाले व्यक्ति इस तरह से बायेसियन विश्वसनीयता अंतराल की आलोचना कर सकते हैं: "तो क्या हुआ अगर 95% पश्चगामी संभावना को इस सीमा में शामिल किया जाए? क्या होगा यदि सही मूल्य है, तो कहना, 0.37? अगर यह है, तो आपकी विधि, चलाएं शुरू करने के लिए खत्म हो जाएगा, समय के 75% गलत हो जाएगा। आपकी प्रतिक्रिया है, 'ठीक है, यह ठीक है क्योंकि पूर्व के अनुसार यह बहुत दुर्लभ है कि मूल्य 0.37 है,' और ऐसा हो सकता है, लेकिन मुझे एक विधि चाहिए पैरामीटर के किसी भी संभावित मूल्य के लिए काम करता है। मैं पैरामीटर के 99 मूल्यों के बारे में परवाह नहीं करता हूं जो आईटी नहीं करता है। मैं एक सच्चे मूल्य आईटी के बारे में परवाह करता हूं। ओह, वैसे, आपके उत्तर केवल सही हैं। यदि पूर्व सही है। यदि आप इसे केवल पतली हवा से बाहर निकालते हैं क्योंकि यह सही लगता है, तो आप रास्ता बंद कर सकते हैं। "

एक तरह से ये दोनों पक्षकार एक-दूसरे के तरीकों की अपनी आलोचना में सही हैं, लेकिन मैं आपसे आग्रह करूंगा कि भेद के बारे में गणितीय रूप से सोचें - जैसा कि श्रीकांत बताते हैं।


यहाँ उस बात से एक विस्तारित उदाहरण है जो एक असतत उदाहरण में ठीक अंतर दिखाता है।

जब मैं एक बच्चा था तो मेरी माँ कभी-कभार मुझे मेल द्वारा डिलीवर होने वाली चॉकलेट-चिप कुकीज का जार ऑर्डर करके चौंका देती थी। डिलीवरी कंपनी ने चार अलग-अलग प्रकार के कुकी जार का स्टॉक किया - टाइप ए, टाइप बी, टाइप सी और टाइप डी, और वे सभी एक ही ट्रक पर थे और आपको कभी भी यकीन नहीं था कि आपको किस प्रकार मिलेगा। प्रत्येक जार में बिल्कुल 100 कुकीज़ थे, लेकिन अलग-अलग कुकी जार को अलग करने वाले फ़ीचर उनके कुकी प्रति चॉकलेट चिप्स के संबंधित वितरण थे। यदि आप जार में पहुंच गए और यादृच्छिक रूप से एक ही कुकी को समान रूप से निकाल लिया, तो ये संभावना वितरण हैं जो आपको चिप्स की संख्या पर मिलेंगे:

वैकल्पिक शब्द

एक प्रकार-ए कुकी जार, उदाहरण के लिए, दो चिप्स के साथ 70 कुकीज़ हैं, और चार चिप्स या अधिक के साथ कोई कुकीज़ नहीं है! एक टाइप-डी कुकी जार में एक चिप के साथ 70 कुकीज होती हैं। ध्यान दें कि प्रत्येक वर्टिकल कॉलम एक प्रायिकता मास फंक्शन है - आपको मिलने वाली चिप्स की संख्या की सशर्त प्रायिकता, यह देखते हुए कि जार = ए, या बी, या सी, या डी, और प्रत्येक कॉलम 100 पर बैठता है।

जैसे ही डिलीवरीमैन ने मेरा नया कुकी जार बंद किया, मुझे एक गेम खेलना पसंद था। मैं जार से यादृच्छिक पर एक एकल कुकी खींचता हूं, कुकी पर चिप्स गिनता हूं, और अपनी अनिश्चितता को व्यक्त करने की कोशिश करता हूं - 70% स्तर पर - किस जार में यह हो सकता है। इस प्रकार यह जार (ए, बी, सी या डी) की पहचान है जो अनुमानित पैरामीटर का मूल्य है । चिप्स (0, 1, 2, 3 या 4) की संख्या परिणाम या अवलोकन या नमूना है।

मूल रूप से मैंने एक गेमिस्ट, 70% आत्मविश्वास अंतराल का उपयोग करके यह गेम खेला। यह सुनिश्चित करें कि इस तरह के एक अंतराल बनाने के लिए की जरूरत है कोई फर्क नहीं पड़ता पैरामीटर के सही मूल्य, कोई फर्क नहीं पड़ता जो कुकी जार मुझे मिल गया, जिसका अर्थ है, अंतराल कम से कम 70% संभावना के साथ कि सही मूल्य को कवर किया जाएगा।

एक अंतराल, निश्चित रूप से, एक फ़ंक्शन है जो पैरामीटर के मानों (स्तंभों का एक सेट) के एक परिणाम (एक पंक्ति) से संबंधित है। लेकिन विश्वास अंतराल का निर्माण करने और 70% कवरेज की गारंटी देने के लिए, हमें "लंबवत" काम करने की आवश्यकता है - प्रत्येक स्तंभ को बारी-बारी से देखते हुए, और यह सुनिश्चित करते हुए कि 70% संभावना सामूहिक कार्य को कवर किया जाता है ताकि 70% समय हो, कॉलम की पहचान परिणाम के अंतराल का हिस्सा होगी। याद रखें कि यह ऊर्ध्वाधर कॉलम है जो एक pmf बनाते हैं

इसलिए उस प्रक्रिया को करने के बाद, मैंने इन अंतरालों को समाप्त किया:

यहां छवि विवरण दर्ज करें

उदाहरण के लिए, अगर कुकी I पर चिप्स की संख्या 1 है, तो मेरा आत्मविश्वास अंतराल {B, C, D} होगा। यदि संख्या 4 है, तो मेरा आत्मविश्वास अंतराल {B, C} होगा। ध्यान दें कि चूंकि प्रत्येक कॉलम 70% या उससे अधिक की मात्रा में है, तो कोई बात नहीं कि हम किस कॉलम में सही मायने में हैं (कोई फर्क नहीं पड़ता कि डिलीवरीमैन ने किसे छोड़ा है), इस प्रक्रिया से उत्पन्न अंतराल में कम से कम 70% संभावना के साथ सही जार शामिल होगा।

ध्यान दें कि अंतराल के निर्माण में मैंने जो प्रक्रिया अपनाई थी, उसमें कुछ विवेक था। टाइप-बी के लिए कॉलम में, मैं आसानी से यह सुनिश्चित कर सकता था कि बी को शामिल करने वाले अंतराल 1,2,3,4 के बजाय 0,1,2,3 होंगे। इसके परिणामस्वरूप टाइप-बी जार (12 + 19 + 24 + 20) के लिए 75% कवरेज होगा, जो अभी भी 70% के निचले सीमा को पूरा कर रहा है।

मेरी बहन बेसिया ने सोचा कि यह दृष्टिकोण पागल था, हालांकि। "आपको डिलीवरीमैन को सिस्टम का हिस्सा मानना ​​होगा," उसने कहा। "चलो जार की पहचान को एक यादृच्छिक चर के रूप में मानते हैं , और मान लेते हैं कि डिलिवरमैन उनके बीच समान रूप से चुनता है - जिसका अर्थ है कि वह अपने ट्रक पर सभी चार है, और जब वह हमारे घर पर पहुंचता है, तो वह यादृच्छिक रूप से एक को चुनता है, प्रत्येक के साथ एक समान संभावना। "

"उस धारणा के साथ, अब पूरी घटना की संयुक्त संभावनाओं पर नज़र डालते हैं - जार प्रकार और चिप्स की संख्या जो आप अपनी पहली कुकी से खींचते हैं," उसने कहा, निम्न तालिका ड्राइंग:

यहां छवि विवरण दर्ज करें

ध्यान दें कि पूरी तालिका अब एक प्रायिकता है।

"ठीक है," मैंने कहा, "आप इस के साथ कहाँ हैं?"

बाइसिया ने कहा, "आप जार को देखते हुए चिप्स की संख्या की सशर्त संभावना को देख रहे हैं।" "यह सब गलत है! आप वास्तव में किस बात की परवाह करते हैं कि यह किस जार की सशर्त संभावना है, कुकी को चिप्स की संख्या को देखते हुए! आपके 70% अंतराल में बस सूची जार शामिल होना चाहिए, कुल में, 70% होने की संभावना है! सच जार। क्या यह बहुत सरल और अधिक सहज नहीं है? "

"ज़रूर, लेकिन हम इसकी गणना कैसे करते हैं?" मैंने पूछा।

"मान लें कि हमें पता है कि आपको 3 चिप्स मिले हैं। फिर हम तालिका में अन्य सभी पंक्तियों को अनदेखा कर सकते हैं, और बस उस पंक्ति को संभाव्यता द्रव्यमान फ़ंक्शन के रूप में मान सकते हैं। हमें प्रत्येक पंक्ति को अनुपातिक रूप से स्केल करने की आवश्यकता होगी, ताकि प्रत्येक पंक्ति 100 पर आ जाए। , हालांकि।" उसने किया:

यहां छवि विवरण दर्ज करें

"ध्यान दें कि प्रत्येक पंक्ति अब एक pmf कैसे है, और 100% के पास है। हमने आपके साथ शुरू की गई सशर्त संभावना को छोड़ दिया है - अब यह उस व्यक्ति की संभावना है जो एक निश्चित जार से गिरा दिया गया है, जिस पर चिप्स की संख्या दी गई है पहली कुकी। "

"दिलचस्प है," मैंने कहा। "तो अब हम 70% संभावना तक पाने के लिए प्रत्येक पंक्ति में बस पर्याप्त जार सर्कल?" हमने बस यही किया है, इन विश्वसनीयता अंतरालों को बनाना:

यहां छवि विवरण दर्ज करें

प्रत्येक अंतराल में जार का एक सेट शामिल होता है, जो पोस्टीरियर , सच्चा जार होने की 70% संभावना है।

"ठीक है, रुको।" "मैं आश्वस्त नहीं हूं। चलो दो प्रकार के अंतराल डालते हैं और कवरेज के लिए उनकी तुलना करते हैं और यह मानते हुए कि डिलीवरीमैन प्रत्येक प्रकार के जार को समान संभावना, विश्वसनीयता के साथ चुनता है।"

वे यहाँ हैं:

विश्वास अंतराल:

यहां छवि विवरण दर्ज करें

विश्वसनीयता अंतराल:

यहां छवि विवरण दर्ज करें

"देखें कि आपका आत्मविश्वास अंतराल कितना पागल है?" बेसिया ने कहा। "जब आप शून्य चिप्स के साथ कुकी आकर्षित करते हैं, तो आपके पास एक समझदार जवाब नहीं होता है! आप बस कहते हैं कि यह खाली अंतराल है। लेकिन यह स्पष्ट रूप से गलत है - यह चार प्रकार के जार में से एक है। आप कैसे रह सकते हैं।" अपने आप से, दिन के अंत में एक अंतराल बताते हुए जब आप जानते हैं कि अंतराल गलत है? और जब आप 3 चिप्स के साथ एक कुकी खींचते हैं तो डिट्टो - आपका अंतराल केवल 41% समय के लिए सही है। इसे '70% 'आत्मविश्वास कहें। अंतराल बकवास है। "

"ठीक है, हे," मैंने जवाब दिया। "यह 70% समय के लिए सही है, इससे कोई फर्क नहीं पड़ता कि डिलीवरीमैन किस जार से गिरा है। यह आपकी विश्वसनीयता के अंतराल के बारे में जितना कह सकता है उससे कहीं अधिक है। यदि जार बी टाइप है तो क्या आपका अंतराल 80% समय गलत होगा? , और केवल 20% समय ही सही! "

"यह एक बड़ी समस्या की तरह लगता है," मैंने जारी रखा, "क्योंकि आपकी गलतियों को जार के प्रकार के साथ सहसंबद्ध किया जाएगा। यदि आप 100 'बायेसियन' रोबोट भेजते हैं, तो यह आकलन करने के लिए कि आपके पास किस प्रकार का जार है, प्रत्येक रोबोट एक कुकी का नमूना लेता है, आप 'मुझे बता रहे हैं कि टाइप-बी के दिनों में, आप 80 रोबोट से गलत उत्तर पाने की उम्मीद करेंगे, जिनमें से प्रत्येक को अपने गलत निष्कर्ष में 73% विश्वास होगा! यह परेशानी की बात है, खासकर यदि आप चाहते हैं कि अधिकांश रोबोट सहमत हों! सही उत्तर।"

"इसके अलावा, हमें यह अनुमान लगाना था कि डिलीवरीमैन समान व्यवहार करता है और प्रत्येक प्रकार के जार को यादृच्छिक रूप से चुनता है," मैंने कहा। "यह कहां से आया? क्या हुआ अगर यह गलत है? आपने उससे बात नहीं की है; आपने उसका साक्षात्कार नहीं लिया है। फिर भी आपके सभी पोस्टहार्टी संभावनाएं इस कथन पर उसके व्यवहार के बारे में बताती हैं। मुझे बनाने की जरूरत नहीं थी। ऐसी कोई भी धारणा, और मेरा अंतराल सबसे खराब स्थिति में भी अपनी कसौटी पर खरा उतरता है। "

बेयसिया ने कहा, "यह सच है कि मेरा विश्वसनीयता अंतराल टाइप-बी जार पर खराब प्रदर्शन करता है।" "लेकिन ऐसा क्या है? टाइप बी जार केवल 25% समय होता है। यह मेरे प्रकार ए, सी, और डी जार के अच्छे कवरेज से संतुलित है। और मैं कभी भी बकवास नहीं प्रकाशित करता हूं।"

"यह सच है कि जब मैंने शून्य चिप्स के साथ कुकी तैयार की है, तो मेरा आत्मविश्वास अंतराल खराब प्रदर्शन करता है।" "लेकिन ऐसा क्या? Chipless कुकीज कम से कम, सबसे खराब स्थिति में 27% समय (एक प्रकार का जार) है। मैं इस परिणाम के लिए बकवास देने का जोखिम उठा सकती हूं क्योंकि NO जार 30 से अधिक गलत उत्तर देगा। % समय की।"

"कॉलम की बात है," मैंने कहा।

"पंक्ति रकम मायने रखती है," बेयसिया ने कहा।

"मैं देख सकता हूँ कि हम एक गतिरोध में हैं," मैंने कहा। "हम दोनों गणितीय बयानों में सही हैं, लेकिन हम अनिश्चितता को निर्धारित करने के उचित तरीके के बारे में असहमत हैं।"

"यह सच है," मेरी बहन ने कहा। "एक कुकी चाहते हैं?"


17
अच्छा जवाब - सिर्फ एक मामूली बात, आप कहते हैं ".... कहने के बजाय पैरामीटर का एक सही मूल्य है, एक बायेसियन विधि कहती है कि मूल्य को कुछ संभाव्यता वितरण से चुना गया है ....." यह सच नहीं है। बायेसियन सत्य, अज्ञात, निश्चित मूल्य के बारे में अनिश्चितता को व्यक्त करने के लिए संभाव्यता वितरण को फिट करता है। यह कहता है कि कौन से मूल्य प्रशंसनीय हैं, जो डेटा को देखने से पहले ज्ञात था। वास्तविक संभावना बयान है , जहां सही मूल्य है, और की परिकल्पना यह एक है, जानकारी के आधार पर । θ 0 θ IPr[θ0(θ,θ+dθ)|I]θ0θI
probabilityislogic

1
... cont'd ... लेकिन यह सिर्फ लिखने के लिए बहुत अधिक सुविधाजनक है , इसका मतलब यह है कि "पृष्ठभूमि में" इसका क्या अर्थ है। स्पष्ट रूप से यह बहुत भ्रम पैदा कर सकता है। p(θ)
probabilityislogic

16
खेद है कि इस पुराने पुराने पोस्ट को पुनर्जीवित करने के लिए, लेकिन एक त्वरित प्रश्न, अनुभाग में आपके पोस्ट में जहां बार-बार बायेसियन दृष्टिकोण की आलोचना करता है: "क्या होगा यदि सही मूल्य है, कहो, 0.37? यदि यह है, तो आपकी विधि, प्रारंभ करें? खत्म करने के लिए, 75% समय गलत होगा। ” आपको वो नंबर कैसे मिले? कैसे 75% गलत करने के लिए 0.37 अनुरूप है? क्या यह किसी प्रकार के प्रायिकता वक्र से दूर है? धन्यवाद
BYS2

1
शांत चित्रण! यदि हम जार से n कुकीज़ का नमूना लेने की अनुमति देते हैं तो चॉकलेट चिप मॉडल का आत्मविश्वास और विश्वसनीयता अंतराल कैसे समायोजित किया जाएगा? और हम दो दृष्टिकोणों की सटीकता को रेट कर सकते हैं क्योंकि हम सापेक्ष फ्रीक पर डेटा जमा करते हैं। सुराही के जार? मैं अनुमान लगाता हूँ कि पूर्व वितरण के बारे में काफी निश्चित होने के बाद बायेसियन दृष्टिकोण बेहतर भविष्यवाणियाँ करेगा (~ 30 डिलीवरी के बाद)। लेकिन अगर पूर्व डीबीएन अचानक परिवर्तन (एक नया डिलीवरीमैन काम लेता है) कहते हैं तो फ़्रीक्वेंटिस्ट दृष्टिकोण का फायदा होगा।
राबर्टएफ

4
@ BYS2, जब लेखक कहता है कि "What if the true value is, say, 0.37? If it is, then your method, run start to finish, will be WRONG 75% of the time", वे केवल उदाहरण संख्या दे रहे हैं जो उन्होंने बनाया था। इस विशेष मामले में, वे कुछ पूर्व वितरण का उल्लेख करेंगे जिनका 0.37 पर बहुत कम मूल्य था, जिसके अधिकांश घनत्व घनत्व कहीं और थे। और हम मानते हैं कि हमारा उदाहरण वितरण बहुत खराब प्रदर्शन करेगा जब पैरामीटर का सही मान 0.37 होगा, इसी तरह बेसिया की विश्वसनीयता अंतराल बुरी तरह से विफल हो गई जब जार टाइप-बी हुआ।
गैरेट

32

मेरी समझ इस प्रकार है:

पृष्ठभूमि

मान लीजिए कि आपके पास कुछ डेटा और आप का अनुमान लगाने का प्रयास कर रहे हैं । आपके पास एक डेटा जनरेट करने की प्रक्रिया है, जो बताती है कि कैसे पर सशर्त उत्पन्न होता है । दूसरे शब्दों में आप का वितरण जानते हैं (कहते हैं, the ।xθxθxf(x|θ)

इंफ़ेक्शन की समस्या

आपकी अनुमान समस्या यह है: देखे गए डेटा देखते हुए कौन से मूल्य उचित हैं ?θx

विश्वास अंतराल

विश्वास अंतराल उपरोक्त समस्या का एक शास्त्रीय उत्तर है। इस दृष्टिकोण में, आप मानते हैं कि का सही, निश्चित मूल्य है । इस धारणा को देखते हुए, आप डेटा का उपयोग ( ( ) का अनुमान लगाने के लिए करते हैं )। एक बार जब आप अपना अनुमान लगा लेते हैं तो आप यह आकलन करना चाहते हैं कि सही मूल्य आपके अनुमान के संबंध में कहां है।θxθθ^

ध्यान दें कि इस दृष्टिकोण के तहत सही मान एक यादृच्छिक चर नहीं है। यह एक निश्चित लेकिन अज्ञात मात्रा है। इसके विपरीत, आपका अनुमान है के रूप में यह पर अपने डेटा निर्भर करता है एक यादृच्छिक चर जो अपने डेटा पैदा करने की प्रक्रिया से उत्पन्न किया गया था। इस प्रकार, आप महसूस करते हैं कि आपको अपने अध्ययन को दोहराने पर हर बार अलग-अलग अनुमान मिलते हैं।x

उपरोक्त समझ निम्नलिखित कार्यप्रणाली की ओर ले जाती है, जहां यह आकलन किया जाता है कि सही पैरामीटर आपके अनुमान के संबंध में है। निम्नलिखित संपत्ति के साथ एक अंतराल, को परिभाषित करें :I[lb(x),ub(x)]

P(θI)=0.95

उपरोक्त जैसे अंतराल का निर्माण किया जाता है जिसे आत्मविश्वास अंतराल कहा जाता है। चूंकि, वास्तविक मूल्य अज्ञात है, लेकिन निश्चित है, सही मूल्य या तो अंतराल में या अंतराल के बाहर है। विश्वास अंतराल तब इस संभावना के बारे में एक बयान है कि जो अंतराल हम वास्तव में प्राप्त करते हैं उसका वास्तविक पैरामीटर मूल्य है। इस प्रकार, संभाव्यता कथन अंतराल के बारे में है (यानी, संभावना है कि अंतराल जिसका वास्तविक मान है या नहीं) सही पैरामीटर मान के स्थान के बारे में है।

इस प्रतिमान में, इस संभावना के बारे में बोलना व्यर्थ है कि एक सच्चा मूल्य किसी मूल्य से कम या अधिक है क्योंकि सच्चा मूल्य एक यादृच्छिक चर नहीं है।

विश्वसनीय अंतराल

शास्त्रीय दृष्टिकोण के विपरीत, बायेसियन दृष्टिकोण में हम मानते हैं कि सही मूल्य एक यादृच्छिक चर है। इस प्रकार, हम सच्चे पैरामीटर वेक्टर पर एक पूर्व वितरण को लागू करके वास्तविक पैरामीटर मान के बारे में हमारी अनिश्चितता को कैप्चर करते हैं (कहते हैं )।f(θ)

बायस प्रमेय का उपयोग करते हुए, हम पैरामीटर वेक्टर के लिए पूर्ववर्ती वितरण और हमारे पास डेटा को संक्षिप्त रूप से हैं (संक्षेप में पोस्टीरियर ) है।f(θ|)f(θ)f(x|θ)

हम तब पीछे के वितरण का उपयोग करते हुए एक बिंदु के अनुमान पर पहुंचते हैं (उदाहरण के लिए, पश्च वितरण के साधन का उपयोग करें)। हालाँकि, इस प्रतिमान के तहत, सच्चा पैरामीटर वेक्टर एक यादृच्छिक चर है, हम अपने बिंदु अनुमान में अनिश्चितता की सीमा जानना चाहते हैं। इस प्रकार, हम एक अंतराल का निर्माण करते हैं जैसे कि निम्नलिखित रखती है:

P(l(θ)θub(θ))=0.95

ऊपर एक विश्वसनीय अंतराल है।

सारांश

विश्वसनीय अंतराल पैरामीटर मानों के स्थान पर हमारी वर्तमान अनिश्चितता को पकड़ते हैं और इस प्रकार पैरामीटर के बारे में संभाव्य कथन के रूप में व्याख्या की जा सकती है।

इसके विपरीत, आत्मविश्वास अंतराल हम प्राप्त किए गए अंतराल के बारे में अनिश्चितता को पकड़ते हैं (यानी, इसमें सही मूल्य है या नहीं)। इस प्रकार, उन्हें सच्चे पैरामीटर मानों के बारे में एक संभाव्य कथन के रूप में व्याख्या नहीं की जा सकती है।


2
परिभाषा के अनुसार 95% आत्मविश्वास अंतराल 95% मामलों में सही पैरामीटर मान को कवर करता है, जैसा कि आपने सही ढंग से संकेत दिया है। इस प्रकार, मौका है कि आपका अंतराल सही पैरामीटर मान को कवर करता है 95% है। आप कभी-कभी इस अवसर के बारे में कुछ कह सकते हैं कि पैरामीटर किसी भी सीमाओं से बड़ा या छोटा है, अंतराल के निर्माण के समय आपके द्वारा की गई मान्यताओं के आधार पर (बहुत बार आपके अनुमान का सामान्य वितरण)। आप P (थीटा> ub), या P (ub <थीटा) की गणना कर सकते हैं। बयान सीमा के बारे में है, वास्तव में, लेकिन आप इसे बना सकते हैं।
जोरिस मेय्स

9
जोरिस, मैं सहमत नहीं हो सकता। हां, पैरामीटर के किसी भी मूल्य के लिए,> 95% संभावना होगी कि परिणामस्वरूप अंतराल सही मूल्य को कवर करेगा। इसका मतलब यह नहीं है कि एक विशेष अवलोकन करने और अंतराल की गणना करने के बाद, अभी भी 95% सशर्त संभावना है, जो कि उस डेटा को दिया गया है जो वास्तविक मूल्य को कवर करता है। जैसा कि मैंने नीचे कहा था, औपचारिक रूप से यह एक विश्वास अंतराल के लिए पूरी तरह से स्वीकार्य होगा [०, १] ९ ५% समय और खाली अन्य ५%। जिन मौकों को आपको अंतराल के रूप में खाली सेट मिला है, वहाँ 95% संभावना नहीं है कि सही मूल्य है!
कीथ विंस्टीन

@ कीथ: मैं आपकी बात देखता हूं, हालांकि एक खाली सेट परिभाषा द्वारा अंतराल नहीं है। एक विश्वास अंतराल की संभावना भी इसके विपरीत डेटा पर सशर्त नहीं है। हर आत्मविश्वास अंतराल एक अलग यादृच्छिक नमूने से आता है, इसलिए मौका है कि आपका नमूना इस तरह से तैयार किया गया है कि 95% सीआई, जिस पर यह आधारित है, वास्तविक पैरामीटर मान को कवर नहीं करता है, डेटा की परवाह किए बिना केवल 5% है।
जोरिस मे

1
जोरिस, मैं "नमूना" के पर्याय के रूप में "डेटा" का उपयोग कर रहा था, इसलिए मुझे लगता है कि हम सहमत हैं। मेरा कहना यह है कि यह परिस्थितियों में होना संभव है, आप नमूना लेने के बाद, जहां आप पूर्ण निश्चितता के साथ यह साबित कर सकते हैं कि आपका अंतराल गलत है - यह सही मूल्य को कवर नहीं करता है। इसका मतलब यह नहीं है कि यह एक मान्य 95% विश्वास अंतराल नहीं है। इसलिए आप यह नहीं कह सकते कि विश्वास पैरामीटर (95%) आपको किसी विशेष अंतराल के कवरेज की संभावना के बारे में कुछ बताता है, जब आपने प्रयोग किया है और अंतराल प्राप्त किया है। केवल एक पूर्ववर्ती संभावना, जो एक पूर्व द्वारा सूचित की जाती है, वह बोल सकती है।
कीथ विंस्टीन

4
@svadalli - बायेसियन दृष्टिकोण यह नहीं मानता है कि यादृच्छिक है । ऐसा नहीं है कि वितरित किया जाता है ( तय लेकिन अज्ञात है), यह है के बारे में अनिश्चितता जो वितरित किया जाता है, के बारे में ज्ञान के एक राज्य पर सशर्त । वास्तविक संभाव्यता कथन जो कैप्चरिंग है । वास्तव में, ठीक यही तर्क पर लागू होता है , इसे भी निश्चित माना जा सकता है, लेकिन अज्ञात। θ θθ θ θf(θ)Pr(θ is in the interval (θ,θ+dθ)|I)=f(θ)dθX
probabilityislogic

13

मैं एक मूल बिंदु पर श्रीकांत के जवाब से असहमत हूं। श्रीकांत ने कहा:

"इंफ़ेक्शन प्रॉब्लम: आपकी इंफ़ेक्शन प्रॉब्लम यह है: देखे गए डेटा x को देखते हुए θ के कौन से मूल्य उचित हैं?"

वास्तव में यह BAYESIAN INFERENCE PROBLEM है। बेयसियन आँकड़ों में हम P (ie x) की गणना करने की कोशिश करते हैं, अर्थात प्रेक्षित डेटा (नमूना) को दिए गए पैरामीटर मान की संभावना। क्रेडल इंटरवल θ का एक अंतराल है जिसमें 95% मौका (या अन्य) होता है, जिसमें θ का सही मान होता है, जो समस्या को अंतर्निहित कई मान्यताओं को देता है।

फ्रीक्वेंटरी इन्फर्मेशन प्रॉब्लम यह है:

क्या देखे गए डेटा x को es के परिकल्पित मान दिए गए हैं?

अक्सर आंकड़ों में हम पी (x। Ie) की गणना करने की तलाश करते हैं, यानी परिकल्पित पैरामीटर मान (ओं) को देखते हुए डेटा (नमूना) के अवलोकन की संभावना। CONFIDENCE INTERVAL (शायद एक मिथ्या नाम) की व्याख्या इस प्रकार की जाती है: यदि यादृच्छिक नमूना x उत्पन्न करने वाले प्रयोग को कई बार दोहराया गया था, तो उन यादृच्छिक नमूनों से निर्मित ऐसे अंतराल के 95% (या अन्य) में पैरामीटर का सही मूल्य होगा।

अपने सिर के साथ मेस? बार-बार के आँकड़ों के साथ यही समस्या है और इसके लिए मुख्य चीज़ बायेसियन आँकड़े हैं।

जैसा कि सिकरंट बताते हैं, P (θ | x) और P (x | are) निम्नानुसार हैं:

P (θ | x) = P (θ) P (x | x)

जहां P (θ) हमारी पूर्व संभावना है; P (x | () उस से पहले डेटा सशर्त की संभावना है और P (x | x) पश्च-सुगमता है। पूर्व P (prior) स्वाभाविक रूप से व्यक्तिपरक है, लेकिन यह ब्रह्मांड के बारे में ज्ञान की कीमत है - बहुत ही गहन अर्थों में।

सिक्रंट और कीथ दोनों के उत्तर के अन्य भाग उत्कृष्ट हैं।


तकनीकी रूप से, आप सही हैं लेकिन ध्यान दें कि विश्वास अंतराल पैरामीटर मानों का सेट देता है जिसके लिए अशक्त परिकल्पना सच है। इस प्रकार, "देखा गया डेटा x उचित थेटा के बारे में हमारी परिकल्पना है?" के रूप में पुन: प्रकाशित किया जा सकता है "थीटा के सही मूल्य क्या एक संगत परिकल्पना होगी जिसे प्रेक्षित डेटा x दिया गया है?" ध्यान दें कि पुन: संचालित प्रश्न का अर्थ यह नहीं है कि थीटा को एक यादृच्छिक चर माना जा रहा है। पुनःप्रकाशित प्रश्न इस तथ्य का शोषण करता है कि यदि हम विश्वास अंतराल में परिकल्पित मूल्य गिरते हैं तो हम निरीक्षण करके अशक्त परिकल्पना परीक्षण करते हैं।

@svadali - विश्वास अंतराल एक निश्चित परिकल्पना के लिए डेटा का मूल्यांकन करता है। इस प्रकार जब समीकरण के "निश्चित" भाग को बदलते हैं, यदि आप अपने डेटा को देखने से पहले परिकल्पना की संभावना को ध्यान में रखने में विफल रहते हैं, तो आप असंगतता और असंगत परिणामों के साथ आने के लिए बाध्य हैं। शर्तों को बदलते समय सशर्त संभावना "विवश" नहीं है (उदाहरण के लिए स्थितियों को बदलकर आप सशर्त संभाव्यता को 0 से 1 तक बदल सकते हैं)। पूर्व संभाव्यता इस मनमानी का ध्यान रखती है। X पर कंडीशनिंग इसलिए की जाती है क्योंकि हम निश्चित हैं कि X गलत हो गया है-हमने X का अवलोकन किया!
probabilityislogic

13

पहले दिए गए उत्तर बहुत ही उपयोगी और विस्तृत हैं। यहाँ मेरा $ 0.25 है।

कॉन्फिडेंस इंटरवल (CI) प्रायिकता की शास्त्रीय परिभाषा (जिसे "फ़्रीक्वेंटिस्ट परिभाषा" भी कहा जाता है) पर आधारित एक अवधारणा है कि प्रायिकता अनुपात की तरह है और यह कोलमोग्रोव (और अन्य) की स्वयंसिद्ध प्रणाली पर आधारित है।

विश्वसनीय अंतराल (उच्चतम पश्च घनत्व, एचपीडी) को वाल्ड और डी फिनेटी के कार्यों के आधार पर निर्णय सिद्धांत में अपनी जड़ें माना जा सकता है (और दूसरों द्वारा बहुत विस्तार किया गया)।

जैसा कि इस सूत्र में लोगों ने उदाहरण देने और बेयसियन और अक्सरवादी मामले में परिकल्पना के अंतर पर बहुत अच्छा काम किया है, मैं सिर्फ कुछ महत्वपूर्ण बिंदुओं पर जोर दूंगा।

  1. सीआई इस तथ्य पर आधारित हैं कि एमईआरटी प्रयोग के सभी संभावित पुनरावृत्तियों पर बनाया जाना चाहिए, जिसे देखा जा सकता है और केवल प्रेक्षित डेटा पर नहीं, जहां एचपीडी के रूप में देखे गए डेटा (और obv। हमारी पूर्व मान्यताओं) पर आधारित होते हैं।

  2. सामान्य CI में सुसंगत नहीं हैं (बाद में समझाया जाएगा) जहां HPD सुसंगत हैं (निर्णय सिद्धांत में अपनी जड़ों के कारण)। सुसंगतता (जैसा कि मैं अपनी दादी माँ को समझाऊंगा) का अर्थ है: एक पैरामीटर मान पर एक सट्टेबाजी की समस्या को देखते हुए, अगर एक शास्त्रीय सांख्यिकीविद् (लगातार) सीआई पर दांव लगाता है और एचपीडी पर एक द्वैतवादी दांव लगाता है, तो अक्सर हारने वाला व्यक्ति खो देता है (तुच्छ मामले को छोड़कर) जब एचपीडी = सीआई)। संक्षेप में, यदि आप डेटा के आधार पर अपने प्रयोग के निष्कर्षों को एक संभावना के रूप में संक्षेप में प्रस्तुत करना चाहते हैं, तो संभावना एक पूर्ववर्ती संभावना (पूर्व के आधार पर) होने की संभावना है। वहाँ एक प्रमेय (सीएफ हीथ और SUDDERTH, सांख्यिकी के इतिहास, 1978) जो (मोटे तौर पर) में कहा गया है: संभावना की असाइनमेंट के लिए डेटा के आधार पर यदि और केवल यदि यह एक बायेसियन तरह से प्राप्त किया जाता है एक निश्चित हारे नहीं होगा।θ

  3. जैसा कि CIs अवलोकन किए गए डेटा (जिसे "सशर्तता सिद्धांत" CP भी कहा जाता है) पर कोई शर्त नहीं है, इसके विरोधाभासी उदाहरण हो सकते हैं। फिशर सीपी का एक बड़ा समर्थक था और इसके कई विरोधाभासी उदाहरण भी पाए गए जब इसका पालन नहीं किया गया (जैसा कि CI के मामले में)। यही कारण है कि उन्होंने सीआई के विपरीत, पी-मान का इस्तेमाल किया। उनके विचार में पी-मान मनाया गया डेटा पर आधारित था (पी-मूल्यों के बारे में बहुत कुछ कहा जा सकता है, लेकिन यहाँ ध्यान केंद्रित नहीं है)। बहुत प्रसिद्ध विरोधाभासी उदाहरणों में से दो हैं: (4 और 5)

  4. कॉक्स का उदाहरण (मैथ्स के एनाल्स। स्टेट, 1958): (iid) के लिए और हम चाहते हैं अनुमान लगाने के लिए । निश्चित नहीं है और एक सिक्का उछालकर चुना जाता है। यदि सिक्का एच में टॉस का परिणाम देता है, तो 2 को चुना जाता है, अन्यथा 1000 को चुना जाता है। "सामान्य ज्ञान" अनुमान - नमूना मतलब विचरण के साथ एक निष्पक्ष अनुमान है । जब के नमूने के विचरण के रूप में हम क्या उपयोग करते हैं ? क्या यह बेहतर (या समझदार) नहीं है कि अनुमानक के वास्तविक विचरण के बजाय (सशर्त विचरण) के रूप में नमूना माध्य अनुमानक के विचरण का उपयोग करें , जो बहुत बड़ा है !! (XiN(μ,σ2)i{1,,n}μn0.5σ2+0.0005σ2n=10000.001σ20.5σ2+0.0005σ2)। यह सीपी एक सरल उदाहरण है जब हम के रूप में विचरण का उपयोग है जब । अकेले खड़े होने का कोई महत्व नहीं है या और (यानी उनके लिए सहायक है) के लिए कोई जानकारी नहीं है, लेकिन इसके मूल्य को समझें, तो आप "डेटा की गुणवत्ता" के बारे में बहुत कुछ जानते हैं। यह सीधे CI से संबंधित है क्योंकि वे विचरण को शामिल करते हैं जिन्हें पर वातानुकूलित नहीं किया जाना चाहिए , अर्थात हम बड़े विचरण का उपयोग करते हुए समाप्त हो जाएंगे, इसलिए रूढ़िवादी पर।0.001σ2n=1000nμσnn

  5. वेल्च का उदाहरण: यह उदाहरण किसी भी लिए काम करता है , लेकिन हम सरलता के लिए लेंगे । (iid), वास्तविक रेखा से संबंधित है। इसका अर्थ है (iid)। (ध्यान दें कि यह एक आँकड़ा नहीं है) में का वितरण स्वतंत्र है । हम st , जिसका अर्थ है 99% CI of thenn=2X1,X2U(θ1/2,θ+1/2)θX1θU(1/2,1/2)12(X1+X2)x¯θθc>0Probθ(c<=x¯θ<=c)=1α(99%)(x¯c,x¯+c)θx¯θθX1=0X2=1|X1X2|=1(X1,X2)θProb(|X1X2|=1)=0, लेकिन हम इसे गणितीय रूप से संभाल सकते हैं और मैं इसकी चर्चा नहीं करूंगा)। यह उदाहरण भी सुसंगतता की अवधारणा को खूबसूरती से दर्शाता है। यदि आप एक शास्त्रीय सांख्यिकीविद् हैं, तो आप निश्चित रूप से 99% CI पर दांव नहीं(यह मानते हुए कि आप अपने पेशे के प्रति सच्चे हैं)। हालाँकि, एक केवल CI पर दांव यदि का मानके करीब है 1. अगर हम शर्तअंतराल सुसंगत है और खिलाड़ी किसी भी लंबे समय तक एक निश्चित हार नहीं होगा (हीथ और सुडरथ द्वारा प्रमेय के समान)।|X1X2||X1X2||X1X2|

  6. फिशर ने ऐसी समस्याओं के लिए एक सिफारिश की थी - सीपी का उपयोग करें। वेल्च के उदाहरण के लिए, फिशर ने की शर्त का सुझाव दिया । जैसा कि हम देखते हैं, लिए सहायक है , लेकिन यह थीटा के बारे में जानकारी प्रदान करता है। यदि SMALL है, तो डेटा में बारे में बहुत अधिक जानकारी नहीं है । यदि बहुत बड़ा है, तो डेटा में बारे में बहुत सारी जानकारी है । फिशर ने सहायक सिद्धांत पर कंडीशनिंग की रणनीति को एक सामान्य सिद्धांत पर विस्तारित किया जिसे फ़िड्यूशियल इंफ़ेक्शन कहा जाता हैX2X1X2X1θX2X1θX2X1θ(जिसे उनकी सबसे बड़ी विफलता, cf Zabell, Stat। Sci। 1992 भी कहा जाता है), लेकिन व्यापकता और लचीलेपन की कमी के कारण यह लोकप्रिय नहीं हुआ। फिशर दोनों शास्त्रीय आंकड़ों (नेमन स्कूल के) और बायेसियन स्कूल (इसलिए सैवेज से प्रसिद्ध कहावत: "फिशर एक बायेसियन ऑमलेट बनाना चाहता था (सीपी का उपयोग करके) को बायेसियन अंडे तोड़कर अलग करने का तरीका खोजने की कोशिश कर रहा था) । लोकगीत (कोई प्रमाण नहीं) कहते हैं: फिशर ने अपनी बहसों में नेमैन (टाइप I और टाइप II त्रुटि और CI के लिए) पर हमला किया, उन्हें साइंटिस्ट के बजाय एक क्वालिटी कंट्रोल मैन कहा, क्योंकि नेमन के तरीकों में देखे गए डेटा पर कोई शर्त नहीं थी, बजाय सभी संभव पुनरावृत्तियों पर।

  7. सांख्यिकीविद सीपी के अलावा पर्याप्तता सिद्धांत (एसपी) का भी उपयोग करना चाहते हैं। लेकिन एसपी और सीपी मिलकर लिपीलीहुड प्रिंसिपल (एलपी) (सीएफ बिरनबाउम, जेएएसए, 1962) को देखते हैं, यानी सीपी और एसपी को देखते हुए, किसी को सैंपल स्पेस को नजरअंदाज करना चाहिए और केवल लाइबिलिटी फंक्शन को देखना चाहिए। इस प्रकार, हमें केवल दिए गए डेटा को देखना है और पूरे नमूना स्थान को नहीं देखना है (पूरे नमूना स्थान को देखना एक तरह से दोहराया नमूना के समान है)। इससे ऑब्जर्व्ड फिशर इंफॉर्मेशन (cf. Efron and Hinkley, AS, 1978) जैसी अवधारणा सामने आई है जो डेटा के बारे में जानकारी को लगातार नजरिए से मापते हैं। डेटा की मात्रा सीआई के बजाय एक बायेसियन अवधारणा (और इसलिए एचपीडी से संबंधित) है।

  8. 1970 के दशक के अंत में Kiefer ने CI पर कुछ मूलभूत कार्य किए, लेकिन उनके एक्सटेंशन लोकप्रिय नहीं हुए। संदर्भ का एक अच्छा स्रोत बर्जर है ("फिशर, नेमन और जेफ्रीस परिकल्पना के परीक्षण के बारे में सहमत हो सकते हैं", स्टेट साइंस, 2003)।


सारांश:

(जैसा कि श्रीकांत और अन्य लोगों द्वारा बताया गया है)
CI की संभावना के रूप में व्याख्या नहीं की जा सकती है और वे अनकाउन्ट पैरामीटर के बारे में कुछ भी नहीं बताते हैं जो अवलोकन किए गए डेटा को देते हैं। सीआई दोहराया प्रयोगों के बारे में बयान देते हैं।

अज्ञात पैरामीटर के पीछे वितरण के आधार पर एचपीडी संभाव्य अंतराल हैं और दिए गए डेटा के आधार पर संभाव्यता आधारित व्याख्या है।

बार-बार संपत्ति (बार-बार नमूना लेना) संपत्ति एक वांछनीय संपत्ति है और एचपीडी (उपयुक्त पुजारी के साथ) और सीआई दोनों के पास है। अज्ञात पैरामीटर के बारे में सवालों के जवाब में भी दिए गए डेटा पर एचपीडी की स्थिति

(ऑब्जेक्टिव नॉट सब्जेक्टिव) बायेसियन शास्त्रीय सांख्यिकीविदों से सहमत हैं कि पैरामीटर का एक ही सही मूल्य है। हालाँकि, वे दोनों इस सच्चे पैरामीटर के बारे में अनुमान लगाने के तरीके में भिन्न हैं।

बायेसियन एचपीडी हमें डेटा पर कंडीशनिंग का एक अच्छा तरीका देते हैं, लेकिन अगर वे सीआई के लगातार गुणों से सहमत होने में विफल होते हैं तो वे बहुत उपयोगी नहीं होते हैं (सादृश्य: एक व्यक्ति जो एचपीडी का उपयोग करता है (कुछ पूर्व के साथ) एक अच्छा लगातार संपत्ति के बिना, बाध्य है) एक कारपेंटर की तरह बर्बाद होना जो केवल हथौड़े की परवाह करता है और स्क्रू ड्राइवर को भूल जाता है)

अंत में, मैंने इस धागे में लोगों को देखा है (डॉ। जॉरिस द्वारा टिप्पणी: "... मान्यताओं में एक फैलाना पूर्व में निहित है, अर्थात सच्चे पैरामीटर के बारे में ज्ञान का पूर्ण अभाव।") सच्चे पैरामीटर के बारे में ज्ञान की कमी के बारे में बात करना। एक फैलाना पूर्व उपयोग करने के बराबर है। मुझे नहीं पता कि क्या मैं बयान से सहमत हो सकता हूं (डॉ। कीथ मेरे साथ सहमत हैं)। उदाहरण के लिए, बुनियादी रेखीय मॉडल मामले में, कुछ वितरण एक समान (जो कुछ लोगों को फैलाना कहा जाता है) से पहले एक समान का उपयोग करके प्राप्त किया जा सकता है, लेकिन इसका मतलब यह नहीं है कि समान वितरण को कम जानकारी के रूप में माना जा सकता है। सामान्य तौर पर, NON-INFORMATIVE (उद्देश्य) पूर्व का मतलब यह नहीं है कि इसमें पैरामीटर के बारे में कम जानकारी है।



ध्यान दें:इनमें से बहुत सारे बिंदु एक प्रमुख बायेसियन के व्याख्यान पर आधारित हैं। मैं अभी भी एक छात्र हूं और किसी तरह से उसे गलत समझ सकता था। कृपया मेरी क्षमायाचना पहले से स्वीकार कर लें।


"लगातार हारने वाला IS IS BOUND है" सबसे अधिक मत वाले उत्तर को देखते हुए, मुझे लगता है कि यह यूटिलिटी फंक्शन पर निर्भर करेगा (उदाहरण के लिए पछतावा ऑप्टिमाइज़ेशन नहीं चल रहा है)। सहजता से, यह पूर्व कार्य को निर्धारित करने की क्षमता पर भी निर्भर हो सकता है ...
हाबिल मोलिना

4
"लगातार हारने वाला IS IS BOUND है" ... * उपयुक्त पूर्व होने पर सशर्त * (जो, सामान्य रूप से, इतना आसान नहीं है)। सही उदाहरण: जुआ के नशेड़ी 99% हैं उनकी किस्मत इस बार बदल जाएगी। जो लोग अपने निर्णय विश्लेषण में इसे शामिल करते हैं, वे लंबे समय में ऐसा नहीं करते हैं।
क्लिफ एबी

1
मुझे नहीं लगता कि आपको विश्वसनीय अंतराल और विश्वास अंतराल के बीच अंतर के बारे में एक जवाब में सीआई के रूप में आत्मविश्वास अंतराल को संक्षिप्त करना चाहिए ।
ह्यूग

10

हमेशा थोड़े दर्शन में संलग्न होने का मज़ा। मैं कीथ की प्रतिक्रिया को काफी पसंद करता हूं, हालांकि मैं कहूंगा कि वह "मिस्टर भुलक्कड़ बायसिया" का स्थान ले रहे हैं। खराब कवरेज जब टाइप बी और टाइप सी केवल तभी आ सकता है यदि वह हर परीक्षण में समान संभावना वितरण लागू करता है, और उसके (उसे) पूर्व अद्यतन करने से इनकार करता है।

आप इसे स्पष्ट रूप से देख सकते हैं, टाइप ए और टाइप डी जार के लिए "निश्चित भविष्यवाणियां" बनाते हैं ताकि बोलने के लिए (क्रमशः 0-1 और 2-3 चिप्स के लिए), जबकि टाइप बी और सी जार मूल रूप से चिप्स का एक समान वितरण देते हैं। तो, कुछ निश्चित "ट्रू जार" (या यदि हम एक और बिस्किट का नमूना लेते हैं) के साथ प्रयोग की पुनरावृत्ति पर, चिप्स का एक समान वितरण प्रकार बी या सी जार के लिए सबूत प्रदान करेगा।

और "व्यावहारिक" दृष्टिकोण से, बी और सी प्रकार के बीच एक विशाल नमूना की आवश्यकता होगी जो उनके बीच अंतर करने में सक्षम हो। दो वितरण के बीच केएल भिन्नता हैं । यह विचलन साथ दो सामान्य वितरणों के बराबर एक विचलन है और साधनों में अंतर है । इसलिए हमें संभवतः एक नमूने के आधार पर भेदभाव करने में सक्षम होने की उम्मीद नहीं की जा सकती है (सामान्य स्थिति के लिए, हमें 5% महत्व स्तर पर इस अंतर का पता लगाने के लिए लगभग 320 नमूना आकार की आवश्यकता होगी)। इसलिए हम उचित रूप से टाइप बी और टाइप सी को एक साथ ढो सकते हैं, जब तक कि हमारे पास एक बड़ा पर्याप्त नमूना नहीं है।KL(B||C)0.006KL(C||B)12×0.006=0.11

अब उन विश्वसनीय अंतरालों का क्या होता है? हमारे पास अब वास्तव में "बी या सी" का 100% कवरेज है! लगातार अंतराल के बारे में क्या? कवरेज अपरिवर्तित है क्योंकि सभी अंतरालों में बी और सी दोनों हैं और न ही, इसलिए यह कीथ की प्रतिक्रिया में आलोचनाओं के अधीन है - 3 और 0 चिप्स के लिए 59% और 0% मनाया गया।

लेकिन यहाँ व्यावहारिक होने देता है। यदि आप एक फ़ंक्शन के संबंध में कुछ का अनुकूलन करते हैं, तो एक अलग फ़ंक्शन के लिए अच्छी तरह से काम करने की उम्मीद नहीं की जा सकती है। हालांकि, दोनों लगातार और बायेसियन अंतराल औसत पर वांछित विश्वसनीयता / विश्वास स्तर प्राप्त करते हैं। हमारे पास - इसलिए पास उपयुक्त औसत विश्वसनीयता है। हमारे पास - में उपयुक्त औसत कवरेज है।(0+99+99+59+99)/5=71.2(98+60+66+97)/4=80.3

एक और बात मैं यह कहना चाहूंगा कि बायेसियन यह नहीं कह रहा है कि संभाव्यता वितरण असाइन करके "पैरामीटर यादृच्छिक है"। बायेसियन के लिए (ठीक है, कम से कम मेरे लिए वैसे भी) एक संभाव्यता वितरण उस पैरामीटर के बारे में जो ज्ञात है उसका विवरण है। "यादृच्छिकता" की धारणा वास्तव में बायेसियन सिद्धांत में मौजूद नहीं है, केवल "जानने" और "न जानने" की धारणाएं हैं। "ज्ञात" शर्तों में जाते हैं, और "अज्ञात" वे होते हैं, जिनके लिए हम संभावनाओं की गणना करते हैं, यदि ब्याज की है, और यदि कोई उपद्रव करता है, तो हाशिए पर। तो एक विश्वसनीय अंतराल का वर्णन करता है कि एक निश्चित पैरामीटर के बारे में क्या जाना जाता है, औसत इसके बारे में क्या ज्ञात नहीं है। तो अगर हम कुकी जार पैक करने वाले व्यक्ति का स्थान लेते हैं और जानते हैं कि यह टाइप ए था, उनकी विश्वसनीयता अंतराल केवल [ए] होगी, भले ही नमूने की परवाह किए बिना और कितने नमूने लिए गए हों। और वे 100% सटीक होंगे!

एक आत्मविश्वास अंतराल "यादृच्छिकता" या भिन्नता पर आधारित है जो विभिन्न संभावित नमूनों में मौजूद है। जैसे कि वे केवल भिन्नता को ध्यान में रखते हैं। तो आत्मविश्वास अंतराल उस व्यक्ति के लिए अपरिवर्तित है, जिसने कुकी जार को पैक किया था और नया था कि यह ए टाइप था। इसलिए यदि आप टाइप ए जार से 1 चिप के साथ बिस्किट आकर्षित करते हैं, तो अक्सर 70% विश्वास के साथ दावा करेंगे कि प्रकार था नहीं, भले ही वे जानते हों कि जार टाइप ए है! (यदि उन्होंने अपनी विचारधारा को बनाए रखा और उनके सामान्य ज्ञान को अनदेखा किया)। यह देखने के लिए कि यह मामला है, ध्यान दें कि इस स्थिति में कुछ भी नमूना वितरण को नहीं बदला है - हमने बस एक पैरामीटर के बारे में "गैर-डेटा" आधारित जानकारी के साथ एक अलग व्यक्ति का दृष्टिकोण लिया है।

जब डेटा में बदलाव होता है या मॉडल / सैंपल वितरण में बदलाव होता है तो कॉन्फिडेंस इंटरवल बदल जाएगा। यदि अन्य प्रासंगिक जानकारी को ध्यान में रखा जाए तो विश्वसनीयता अंतराल बदल सकता है।

ध्यान दें कि यह पागल व्यवहार निश्चित रूप से विश्वास अंतराल का एक प्रस्तावक वास्तव में क्या नहीं करेगा; लेकिन यह एक विशेष मामले में विधि के अंतर्निहित दर्शन में एक कमजोरी प्रदर्शित करता है। जब आप किसी डेटा सेट में मौजूद जानकारी से परे किसी पैरामीटर के बारे में ज्यादा नहीं जानते हैं तो कॉन्फिडेंस इंटरवल अपना सर्वश्रेष्ठ काम करता है। और आगे, विश्वसनीयता अंतराल विश्वास अंतराल पर ज्यादा सुधार नहीं कर पाएंगे जब तक कि पूर्व सूचना नहीं है जो विश्वास अंतराल को ध्यान में नहीं रख सकता है, या पर्याप्त और सहायक आंकड़े ढूंढना कठिन है।


मैं नहीं कह सकता मैं जार उदाहरण के कीथ के विवरण, एक त्वरित प्रश्न समझ में आ: मैं प्रयोग को दोहराएँ बार, एकत्र विभिन्न नमूनों, इसलिए अब मैं अभिकलन किया है अलग सीआईएस (95% आत्मविश्वास का स्तर के साथ प्रत्येक), अब क्या CI है क्या इसका मतलब है कि 95% CI को वास्तविक मूल्य को कवर करना चाहिए? mmmm
एवोकैडो

@loganecolss - यह वास्तव में सच है, लेकिन केवल सीमा में । यह मानक "प्रायिकता" = "लंबे समय तक चलने वाली आवृत्ति" के साथ अंतर्निहित CI की व्याख्या करता है। m
probabilityislogic

हां, सीमा में। फिर एक या सिर्फ एक जोड़े के लिए, CI का मतलब कुछ भी नहीं है, है ना? तो फिर सीआई की गणना करने की क्या बात है, अगर मेरे पास सैंपल नहीं हैं?
एवोकैडो

3
@loganecolss - इसीलिए मैं बायसेनियन हूं।
probabilityislogic

2
@nazka - की तरह। मैं कहूंगा कि बायसेशियन दृष्टिकोण का उपयोग करना हमेशा सबसे अच्छा है चाहे आपके पास कितना भी डेटा हो। यदि यह एक लगातार प्रक्रिया द्वारा अच्छी तरह से अनुमानित किया जा सकता है, तो इसका उपयोग करें। बायेसियन धीमी गति का पर्याय नहीं है।
संभाव्यता

6

जैसा कि मैं इसे समझता हूं: एक विश्वसनीय अंतराल ब्याज की सांख्यिकीयता के लिए मूल्यों की श्रेणी का एक बयान है जो कि वास्तव में देखे गए डेटा के विशेष नमूने को देखते हुए प्रशंसनीय बने हुए हैं। एक आत्मविश्वास अंतराल आवृत्ति का एक बयान है जिसके साथ विश्वास मूल्य अंतराल में निहित है जब प्रयोग को बड़ी संख्या में दोहराया जाता है, प्रत्येक बार एक ही अंतर्निहित आबादी से डेटा के एक अलग नमूने के साथ।

आम तौर पर हम जिस प्रश्न का उत्तर देना चाहते हैं, वह है "आँकड़ा के कौन से मूल्य अवलोकन किए गए डेटा के अनुरूप हैं", और विश्वसनीय अंतराल उस प्रश्न का सीधा जवाब देता है - संभावित 95 के साथ 95% विश्वसनीय अंतराल में सांख्यिकीय झूठ का सही मूल्य %। विश्वास अंतराल इस सवाल का सीधा जवाब नहीं देता है; यह कहना सही नहीं है कि 95% विश्वास अंतराल के भीतर आँकड़ा का सही मूल्य 95% है (जब तक कि यह विश्वसनीय अंतराल के साथ मेल खाने के लिए नहीं होता है)। हालांकि यह एक अतिवादी विश्वास अंतराल की एक बहुत ही सामान्य गलत व्याख्या है क्योंकि यह व्याख्या है जो सवाल का सीधा जवाब होगा।

एक अन्य प्रश्न में चर्चा करने वाले Jayne द्वारा दिए गए पेपर इस का एक अच्छा उदाहरण देता है (उदाहरण # 5), एक बिल्कुल सही आत्मविश्वास अंतराल का निर्माण किया गया था, जहां डेटा का विशेष नमूना जिस पर यह आधारित है, वास्तविक मूल्य की किसी भी संभावना से बाहर है 95% विश्वास अंतराल में सांख्यिकीय का होना! यह केवल एक समस्या है अगर विश्वास अंतराल को गलत तरीके से व्याख्या के मूल्यवान मूल्यों की एक प्रतिमा के रूप में व्याख्या की जाती है जो हमने देखे गए विशेष नमूने के आधार पर की है।

दिन के अंत में, यह "पाठ्यक्रमों के लिए घोड़ों" की बात है, और जो अंतराल सबसे अच्छा है वह उस प्रश्न पर निर्भर करता है जिसका आप उत्तर चाहते हैं - बस उस विधि का चयन करें जो सीधे उस प्रश्न का उत्तर देती है।

मुझे संदेह है कि [desgined] दोहराए जाने वाले प्रयोगों का विश्लेषण करते समय आत्मविश्वास अंतराल अधिक उपयोगी होते हैं (जैसा कि विश्वास अंतराल पर अंतर्निहित धारणा है), और अवलोकन डेटा का विश्लेषण करते समय विश्वसनीय अंतराल बेहतर है, लेकिन यह सिर्फ एक राय है (मैं अंतराल के दोनों प्रकार) मेरा अपना काम है, लेकिन खुद को एक विशेषज्ञ के रूप में नहीं बताऊंगा)।


6
दोहराया प्रयोगों में विश्वास अंतराल के साथ मुद्दा यह है कि उनके काम करने के लिए, दोहराए जाने वाले प्रयोग की शर्तों को एक ही रहने की आवश्यकता है (और कौन विश्वास करेगा?), जबकि बायेसियन अंतराल (यदि ठीक से उपयोग किया गया है) की स्थिति? देखे गए डेटा, और इस प्रकार वास्तविक दुनिया में होने वाले परिवर्तनों (डेटा के माध्यम से) के लिए भत्ते प्रदान करता है। मुझे लगता है कि यह बायेसियन सांख्यिकी के कंडीशनिंग नियम हैं जो इसे बेहतर बनाने के लिए बहुत कठिन हैं (मुझे लगता है कि यह असंभव है: केवल तुल्यता प्राप्त की जा सकती है), और स्वत: मशीनरी जो इसे हासिल करती है जो इसे इतना चालाक लगती है।
probabilityislogic

3

मुझे विश्वास अंतराल के बारे में बहुत सारी व्याख्याएं मिलीं और विश्वसनीय सेट गलत हैं। उदाहरण के लिए, इस अंतराल विश्वास अंतराल व्यक्त नहीं किया जा सकता है । यदि आप बार-बार आने वाले और बायेसियन के संदर्भ में 'डिस्ट्रीब्यूशन' पर बारीकी से देखते हैं, तो आप डेटा पर सैम्पलिंग डिस्ट्रीब्यूशन पर फ़्रीक्वेंटिस्ट कार्य देखेंगे जबकि बायेसियन पैरामीटर के वितरण पर (पीछे) काम करता है। वे पूरी तरह से अलग नमूना अंतरिक्ष और सिग्मा बीजगणित पर परिभाषित किए गए हैं।P(θCI)

तो हाँ आप यह कह सकते हैं कि 'यदि आप बहुत बार प्रयोग दोहराते हैं, तो 95% CI में से लगभग 95% सही पैरामीटर को कवर करेंगे'। हालांकि बेयसियन में आपको '95% विश्वसनीय अंतराल में प्रायिकता 95%' के साथ 'झूठ का सही मूल्य' कहना पड़ता है, हालाँकि, यह 95% संभावना (बायेसियन में) केवल एक अनुमान है। (यह याद रखें कि यह विशिष्ट डेटा दिए गए स्थिति वितरण पर आधारित है, नमूना वितरण नहीं)। यह अनुमानक यादृच्छिक नमूने के कारण एक यादृच्छिक त्रुटि के साथ आना चाहिए।

बायेसियन टाइप I एरर इश्यू से बचने की कोशिश करता है। बायेसियन हमेशा कहते हैं कि बेसेज़ियन में टाइप I त्रुटि के बारे में बात करने का कोई मतलब नहीं है। यह पूरी तरह से सच नहीं है। सांख्यिकीविद हमेशा इस संभावना या त्रुटि को मापना चाहते हैं कि 'आपका डेटा आपको निर्णय लेने के लिए सुझाव देता है, लेकिन जनसंख्या अन्यथा सुझाव देती है।' यह कुछ ऐसा है जो बेयसियन जवाब नहीं दे सकता (विवरण यहां छोड़ दिया गया है)। दुर्भाग्य से, यह सबसे महत्वपूर्ण बात हो सकती है, सांख्यिकीविद् को जवाब देना चाहिए। सांख्यिकीविद सिर्फ एक निर्णय नहीं लेते हैं। सांख्यिकीविदों को यह भी पता होना चाहिए कि निर्णय संभवतः कितना गलत हो सकता है।

मुझे अवधारणा को समझाने के लिए निम्न तालिका और शब्दों का आविष्कार करना होगा। आशा है कि यह कॉन्फिडेंस इंटरवल और विश्वसनीय सेट के अंतर को समझाने में मदद कर सकता है।

कृपया ध्यान दें कि पीछे का वितरण , जहां को पूर्व से परिभाषित किया गया है । लगातार वितरण में नमूना वितरण । का नमूना वितरण । सबस्क्रिप्ट नमूना आकार है। कृपया में नमूना वितरण को प्रस्तुत करने के लिए अंकन का उपयोग न करें । आप और में यादृच्छिक डेटा के बारे में बात कर सकते हैं, लेकिन आप में यादृच्छिक डेटा के बारे में बात नहीं कर सकते ।P(θ0|Datan)θ0P(θ0)P(Datan;θ)θ^P(θ^n;θ)nP(Datan|θ)P(Datan;θ)P(θ0|Datan)P(θ^n;θ)P(θ0|Datan)

कॉन्फिडेंस इंटरवल बनाम विश्वसनीय सेट

'???????' बताते हैं कि हम बायेसियन में टाइप I त्रुटि (या कुछ भी समान) का मूल्यांकन करने में सक्षम क्यों नहीं हैं।

कृपया यह भी ध्यान दें कि विश्वसनीय सेट का उपयोग कुछ परिस्थितियों में आत्मविश्वास के अंतराल के लिए किया जा सकता है। हालाँकि यह केवल गणितीय सन्निकटन है। व्याख्या को बार-बार जाना चाहिए। इस मामले में बायेसियन व्याख्या अब काम नहीं करती है।


the में थायलाकोलो का अंकन अक्सर नहीं होता है। यह अभी भी बायेसियन है। यह नोटेशन अक्सर सिद्धांतवादी के बारे में बात करते समय माप सिद्धांत में एक मूलभूत समस्या का कारण बनता है।P(x|θ)

मैं डिक्रान मार्सुपियल द्वारा किए गए निष्कर्ष से सहमत हूं । यदि आप एफडीए समीक्षक हैं, तो आप हमेशा इस संभावना को जानना चाहते हैं कि आप एक दवा आवेदन को मंजूरी देते हैं लेकिन दवा वास्तव में प्रभावोत्पादक नहीं है। यह वह उत्तर है जो बायेसियन प्रदान नहीं कर सकता है, कम से कम क्लासिक / ठेठ बायेसियन में।


3

सामान्य और सुसंगत आत्मविश्वास और विश्वसनीय क्षेत्र। http://dx.doi.org/10.6084/m9.figshare.1528163 कोड के साथ कम से http://dx.doi.org/10.6084/m9.figshare.1528187

दोनों संभावित कार्यों और कुछ देखे गए डेटा की गणना करने के लिए जेनेरिक आर कोड के साथ सेट चयन के लिए विश्वसनीय अंतराल और आत्मविश्वास अंतराल का विवरण प्रदान करता है। इसके अलावा यह एक परीक्षण आँकड़े प्रस्तावित करता है जो एक दूसरे के साथ संगत इष्टतम आकार के विश्वसनीय और आत्मविश्वास अंतराल देता है।

संक्षेप में और सूत्रों से परहेज। बायेसियन विश्वसनीय अंतराल डेटा दिए गए मापदंडों की संभावना पर आधारित है । यह उन मापदंडों को इकट्ठा करता है जिनकी विश्वसनीय सेट / अंतराल में उच्च संभावना है। 95% विश्वसनीय अंतराल में ऐसे पैरामीटर होते हैं जो एक साथ 0.95 की संभावना को देखते हुए डेटा देते हैं।

लगातार विश्वास अंतराल कुछ मापदंडों को दिए गए डेटा की संभावना पर आधारित है । प्रत्येक (संभवतः असीम रूप से कई) पैरामीटर के लिए, यह सबसे पहले डेटा के सेट को उत्पन्न करता है, जिसे पैरामीटर दिए जाने की संभावना है। यह तब प्रत्येक पैरामीटर के लिए जाँच करता है, कि चयनित उच्च संभावना डेटा में प्रेक्षित डेटा शामिल है या नहीं। यदि उच्च संभावना डेटा में मनाया गया डेटा होता है, तो संबंधित पैरामीटर को विश्वास अंतराल में जोड़ा जाता है। इस प्रकार, विश्वास अंतराल मापदंडों का संग्रह है जिसके लिए हम इस संभावना को खारिज नहीं कर सकते हैं कि पैरामीटर ने डेटा उत्पन्न किया है। यह एक नियम देता है जैसे, यदि समान समस्याओं के लिए बार-बार लागू किया जाता है, तो 95% विश्वास अंतराल में 95% मामलों में सही पैरामीटर मान होगा।

एक नकारात्मक द्विपद वितरण से एक उदाहरण के लिए 95% विश्वसनीय सेट और 95% आत्मविश्वास सेट 95% विश्वसनीय सेट और 95% आत्मविश्वास नकारात्मक द्विपद वितरण के लिए निर्धारित है


विश्वास अंतराल का वर्णन सही नहीं है। "95%" इस संभावना से आता है कि आबादी से एक नमूना अंतराल का उत्पादन करेगा जिसमें पैरामीटर का सही मूल्य है।
jlimahaverford

@jlimahaverford - विवरण सही है जैसा आपका है। आप जो वर्णन करते हैं उसका लिंक बनाने के लिए, मैंने कहा "यह एक नियम देता है जैसे, यदि समान समस्याओं के लिए बार-बार लागू किया जाता है, तो 95% विश्वसनीय अंतराल में 95% मामलों में सही पैरामीटर मान होगा।"
user36160

1
मैं विश्वसनीय अंतराल के बारे में आपके विवरण के बारे में बात नहीं कर रहा था, मैं आत्मविश्वास के अंतराल के बारे में बात कर रहा था। अब मैं यह देख रहा हूं कि आत्मविश्वास के अंतराल पर आपके पैराग्राफ के बीच में आप फिर से विश्वसनीय होने की बात करने लगते हैं, और मुझे लगता है कि यह एक गलती है। महत्वपूर्ण विचार यह है "यदि यह पैरामीटर का सही मूल्य था, तो क्या संभावना है कि मैं एक नमूना खींचूंगा या चरम या अधिक। यदि उत्तर 5% से अधिक है तो यह विश्वास अंतराल में है।"
jlimahaverford

@jlimahaverford - सहमत और सही - धन्यवाद।
user36160

हम्म, मैं इसे सही नहीं देख रहा हूं।
जलमहावर्फोर्ड

1

यह एक टिप्पणी का अधिक है, लेकिन बहुत लंबा है। निम्नलिखित पत्र में: http://www.stat.uchicago.edu/~lekheng/courses/191f09/mumford-AMS.pdf ममफोर्ड में निम्नलिखित दिलचस्प टिप्पणी है:

जबकि ये सभी वास्तव में रोमांचक उपयोग आँकड़े बना रहे थे, अधिकांश सांख्यिकीविद स्वयं, सर आरए फिशर के नेतृत्व में, अपनी पीठ के पीछे अपने हाथों को बांध रहे थे, इस बात पर जोर देते हुए कि आँकड़े किसी भी लेकिन पूरी तरह से प्रतिलिपि प्रस्तुत करने योग्य स्थितियों में उपयोग नहीं किए जा सकते हैं और फिर केवल उपयोग कर रहे हैं अनुभवजन्य डेटा। यह तथाकथित 'लगातार' स्कूल है जो बेयसियन स्कूल के साथ लड़ा गया था, जिसका मानना ​​था कि पुजारियों का इस्तेमाल किया जा सकता है और सांख्यिकीय अनुमान का उपयोग बहुत बढ़ा है। यह दृष्टिकोण इस बात से इनकार करता है कि सांख्यिकीय अनुमान का वास्तविक विचार से कोई लेना-देना नहीं हो सकता है क्योंकि वास्तविक जीवन की परिस्थितियाँ हमेशा संदर्भ चर में दफन होती हैं और उन्हें दोहराया नहीं जा सकता। सौभाग्य से, बायेसियन स्कूल पूरी तरह से मर नहीं गया था, डीफिनेटी, ईटी जेनेस द्वारा जारी रखा गया था, दूसरों के बीच।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.