कोई शास्त्रीय दृष्टिकोण के बजाय 'नॉनफॉर्मफॉर्मेटिव' अनुचित के साथ बायेसियन दृष्टिकोण का उपयोग क्यों करेगा?


44

यदि रुचि केवल एक मॉडल के मापदंडों (बिंदुवार और / या अंतराल अनुमान) का अनुमान लगा रही है और पूर्व जानकारी विश्वसनीय, कमजोर नहीं है, (मुझे पता है कि यह थोड़ा अस्पष्ट है, लेकिन मैं एक परिदृश्य स्थापित करने की कोशिश कर रहा हूं जहां एक की पसंद है पहले से मुश्किल है) ... कोई व्यक्ति शास्त्रीय दृष्टिकोण के बजाय 'नॉनफॉर्मफॉर्मेटिव' अनुचित पादरियों के साथ बायेसियन दृष्टिकोण का उपयोग करना क्यों पसंद करेगा?


1
बायेसियन आंकड़ों के इस विवादास्पद हिस्से के बारे में ऐसे दिलचस्प विचारों के लिए आप सभी का धन्यवाद। मैं आपकी बातों को पढ़ता और तुलना करता रहा हूं। औपचारिक नियमों, व्यावहारिकता और व्याख्या के संदर्भ में इसके उपयोग को मान्य करने वाले दिलचस्प तर्क हैं। मैं किसी बिंदु पर एक उत्तर का चयन करूंगा, लेकिन मुझे डर है कि यह बहुत मुश्किल काम है।

जवाबों:


24

यदि आप अत्यधिक गैर-सूचनात्मक पुजारी का उपयोग कर रहे हैं, तो दो कारण एक बायेसियन दृष्टिकोण के साथ जा सकते हैं:

  • कन्वर्जेंस की समस्या। कुछ वितरण हैं (द्विपद, नकारात्मक द्विपद और सामान्यीकृत गामा मैं सबसे अधिक परिचित हूं) जो अभिसरण समय के एक गैर-तुच्छ राशि है। आप एक "बायेसियन" ढांचे का उपयोग कर सकते हैं - और विशेष रूप से मार्कोव श्रृंखला मोंटे कार्लो (एमसीएमसी) विधियों, कम्प्यूटेशनल शक्ति के साथ इन अभिसरण मुद्दों के माध्यम से अनिवार्य रूप से हल करने के लिए और उनसे अच्छे अनुमान प्राप्त करें।
  • व्याख्या। एक बायेसियन अनुमान + 95% विश्वसनीय अंतराल में लगातार अनुमान लगाने वाले + 95% आत्मविश्वास अंतराल की तुलना में अधिक सहज व्याख्या है, इसलिए कुछ लोग केवल रिपोर्ट करना पसंद कर सकते हैं।

3
MCMC वास्तव में बायेसियन पद्धति नहीं है। यदि आप अभिसरण मुद्दा है तो आप अपने लक्ष्य की संभावना से अनुमान लगा सकते हैं (पीछे नहीं)।
स्कूट्टीज़ ज़ूल

16

हालांकि परिणाम बहुत समान होने जा रहे हैं, उनकी व्याख्याएं अलग हैं।

आत्मविश्वास अंतराल एक प्रयोग को कई बार दोहराने और सच्चे पैरामीटर को 95% बार कैप्चर करने की धारणा का अर्थ है। लेकिन आप यह नहीं कह सकते कि आपके पास इसे कैप्चर करने का 95% मौका है।

दूसरी ओर, विश्वसनीय अंतराल (बायेसियन), आपको यह कहने की अनुमति देता है कि 95% "मौका" है जो अंतराल सही मूल्य को पकड़ता है। अपडेट: इसे लगाने का एक अधिक बेयसियन तरीका यह होगा कि आप अपने परिणामों के बारे में 95% आश्वस्त हो सकते हैं।

यह केवल इसलिए है क्योंकि आप से जो बे के नियम का उपयोग कर रहे थे।P(Data|Hypothesis)P(Hypothesis|Data)


1
मैं यहां भ्रमित हो सकता हूं, लेकिन "सच्चा मूल्य" एक बायेसियन ढांचे में कैसे फिट होता है? शायद आप पोस्टीरियर मोड (या माध्य, या .. आदि) का जिक्र कर रहे हैं?
मैक्रों

मैं जो भी पैरामीटर (जनसंख्या मूल्य) का उल्लेख कर रहा हूं, आप नमूना सांख्यिकीय के साथ अनुमान लगा रहे हैं, यह एक मतलब है, एक अंतर अंतर है, एक प्रतिगमन ढलान है ... संक्षेप में, आप क्या कर रहे हैं।
डोमिनिक कोमोटिस

1
हां, लेकिन "सही मूल्य" यह नहीं दर्शाता है कि पैरामीटर एक स्थिर (यानी इसका वितरण एक बिंदु द्रव्यमान है)? पीछे के वितरण को देखने की पूरी अवधारणा इस तरह से मापदंडों के बारे में सोचने से असहमत है।
मैक्रों

9

मेरा मानना ​​है कि ऐसा करने का एक कारण यह है कि एक बायेसियन विश्लेषण आपको पूर्ण उत्तरोत्तर वितरण प्रदान करता है। इसका परिणाम सामान्य अतिवादी से अधिक विस्तृत अंतराल हो सकता है । रीस और स्टिंगिंगर 2005 का एक लागू उद्धरण है:±2σ

मापदंडों का एक पूर्ण पश्च वितरण प्रदान करना बायेसियन दृष्टिकोण methodsover शास्त्रीय तरीकों का एक फायदा है, जो आमतौर पर संभावना फ़ंक्शन के मोड द्वारा दर्शाए गए मापदंडों का केवल एक बिंदु अनुमान प्रदान करता है, और असममित सामान्यता परिवर्तनों और एक द्विघात अनुमान का उपयोग करता है। अनिश्चितताओं का वर्णन करने के लिए लॉग-लाइबिलिटी फ़ंक्शन। बायेसियन फ्रेमवर्क के साथ, किसी को अनिश्चितताओं का मूल्यांकन करने के लिए किसी भी अनुमान का उपयोग नहीं करना पड़ता है क्योंकि मापदंडों का पूर्ण पीछे वितरण उपलब्ध है। इसके अलावा, एक बायेसियन विश्लेषण पैरामीटर या मापदंडों के किसी भी फ़ंक्शन के लिए विश्वसनीय अंतराल प्रदान कर सकता है जो शास्त्रीय आंकड़ों (कॉन्गडन, 2001) में विश्वास अंतराल की अवधारणा की तुलना में अधिक आसानी से व्याख्या की जाती है।

इसलिए, उदाहरण के लिए, आप दो मापदंडों के बीच अंतर के लिए विश्वसनीय अंतराल की गणना कर सकते हैं।


6

सर हेरोल्ड जेफ़रीज़ बायेसियन दृष्टिकोण के एक मजबूत प्रस्तावक थे। उन्होंने दिखाया कि यदि आप डिफ्यूज़ करने वाले अनुचित पुजारियों का उपयोग करते हैं, तो परिणामस्वरूप बायेसियन इंट्रेंस लगातार हीनतावादी दृष्टिकोण के रूप में होगा (अर्थात, बायेसियन विश्वसनीय क्षेत्र लगातार विश्वास अंतराल के समान हैं)। अधिकांश बायेसियन उचित सूचनात्मक पुजारियों की वकालत करते हैं। अनुचित पुरोहितों के साथ समस्याएं हैं और कुछ तर्क दे सकते हैं कि कोई भी पूर्व वास्तव में गैर-सूचनात्मक नहीं है। मुझे लगता है कि बेइज़ियन जो इन जेफ़रीज़ को पहले इस्तेमाल करते हैं, वे जेफ़री के अनुयायियों के रूप में करते हैं। डेनिस लिंडले , बायेसियन दृष्टिकोण के सबसे मजबूत अधिवक्ताओं में से एक, जेफरीज़ के लिए सम्मान का एक बड़ा सौदा था लेकिन सूचनात्मक पुजारियों की वकालत की।


1
आपके उत्तर की पहली कुछ पंक्तियों के लिए +1। मेरी राय में, "गैर-जानकारीपूर्ण" से पहले एक जेफ्री को चुनने का कारण केवल जेफरी के अनुयायी के रूप में नहीं है। ऐसा इसलिए है क्योंकि यह वास्तव में कोई धारणा नहीं बनाने जैसा है, जबकि तथाकथित गैर-सूचनात्मक पूर्व पैरामीरिजेशन के बारे में एक धारणा बना रहा है।
नील जी

1
@ नील ने मुझे कुछ ऐसे लोगों को भी पाया है जो गैर-सूचनात्मक पुजारियों का उपयोग करते समय अनिवार्य रूप से "फेल फ़्रीक्वेंटिस्ट" (फेल सेफ़र के समान अर्थ में) का उपयोग करते हैं, ताकि उनकी व्याख्या भोले पाठक द्वारा की जा सके।
फोमाइट

@EpiGrad: तुम्हारा मतलब क्या है? (मुझे खेद है, लगातार आंकड़ों की मेरी समझ बहुत खराब है।)
नील जी

1
@ नीलगिरी अनिवार्य रूप से शोषण कर रही है कि जेफरी के पूर्व आपको वह देगा जो लगातार क्षेत्रों में प्रशिक्षित किसी व्यक्ति को देखने की उम्मीद है। यह एक मध्यम मध्यम जमीन है जब रखा बायेसियन विधियों में काम करने से बहुत अधिक प्रवेश नहीं हुआ है।
फोमाइट

@NeilG मैं यह भी भूल गया कि, मेरे उत्तर में, यदि आप MCMC का उपयोग लगातार विश्लेषण करने के लिए कर रहे हैं, अभिसरण मुद्दों के इर्द-गिर्द घूम रहे हैं, तो जेफरी का पूर्व मददगार भी है।
Fomite

6

बायेसियन दृष्टिकोण के व्यावहारिक फायदे हैं। यह अनुमान के साथ मदद करता है, अक्सर अनिवार्य होता है। और यह उपन्यास मॉडल परिवारों को सक्षम बनाता है, और अधिक जटिल (पदानुक्रमित, बहुस्तरीय) मॉडल के निर्माण में मदद करता है।

उदाहरण के लिए, मिश्रित मॉडल के साथ (विचरण मापदंडों के साथ यादृच्छिक प्रभाव सहित) बेहतर अनुमान प्राप्त करता है यदि विचरण मापदंडों का अनुमान निचले-स्तर के मापदंडों (मॉडल गुणांक से अधिक है, इसे REML कहा जाता है )। बायेसियन दृष्टिकोण यह स्वाभाविक रूप से करता है। इन मॉडलों के साथ, यहां तक ​​कि REML के साथ, विचरण मापदंडों की अधिकतम संभावना (एमएल) अनुमान अक्सर शून्य, या नीचे पक्षपाती होते हैं। विचरण मापदंडों के लिए एक उचित पूर्व मदद करता है।

भले ही बिंदु अनुमान ( एमएपी , अधिकतम पोस्टीरियर) का उपयोग किया जाता है, पुजारी मॉडल परिवार को बदलते हैं। कुछ संपार्श्विक चरों का एक बड़ा सेट के साथ रैखिक प्रतिगमन अस्थिर है। एल 2 नियमितीकरण को एक उपाय के रूप में प्रयोग किया जाता है, लेकिन यह गौसियन (गैर-सूचनात्मक) पूर्व और एमएपी अनुमान के साथ बायेसियन मॉडल के रूप में व्याख्या योग्य है। (एल 1 नियमितीकरण एक अलग पूर्व है और विभिन्न परिणाम देता है। वास्तव में यहाँ पूर्व कुछ जानकारीपूर्ण हो सकता है, लेकिन यह मापदंडों के सामूहिक गुणों के बारे में है, न कि किसी एकल पैरामीटर के बारे में।)

तो कुछ सामान्य और अपेक्षाकृत सरल मॉडल हैं जहाँ एक चीज़ को प्राप्त करने के लिए बायेसियन दृष्टिकोण की आवश्यकता होती है!

चीजें और अधिक जटिल मॉडल के पक्ष में और भी अधिक हैं, जैसे कि मशीन सीखने में उपयोग किए गए अव्यक्त डिरिचलेट आवंटन (एलडीए)। और कुछ मॉडल बायेसियन हैं, उदाहरण के लिए, जो डिरिचलेट प्रक्रियाओं पर आधारित हैं


6

हम दोनों दृष्टिकोणों का बचाव करने के लिए आक्षेप की नींव के बारे में हमेशा बहस कर सकते हैं, लेकिन मुझे कुछ अलग करने का प्रस्ताव दें। एक क्लासिक पर एक बायेसियन विश्लेषण के पक्ष में एक कारण स्पष्ट रूप से दिखाया गया है कि दोनों दृष्टिकोण भविष्यवाणी से कैसे निपटते हैं। मान लीजिए कि हमारे पास सामान्य रूप से iid मामला है। शास्त्रीय रूप से, एक अनुमानित घनत्व को परिभाषित किया जाता है मान जो कि पैरामीटर के सशर्त घनत्व । यह शास्त्रीय भविष्य कहनेवाला घनत्व अनुमान की अनिश्चितता के लिए खाता नहीं हैpracticalθ^=θ^(x1,,xn)ΘfXn+1Θ(xn+1θ)fXn+1Θ(xn+1θ^)θ^: पूरी तरह से अलग आत्मविश्वास अंतराल के साथ दो समान बिंदु अनुमान आपको एक ही पूर्वानुमान घनत्व प्रदान करते हैं। दूसरी ओर, बायेसियन भविष्य कहनेवाला घनत्व पैरामीटर के बारे में अनिश्चितता को ध्यान में रखता है, टिप्पणियों के नमूने में जानकारी स्वचालित रूप से दी जाती है, चूंकि

fXn+1X1,,Xm(xn+1x1,,xn)=fXn+1Θ(xn+1θ)π(θx1,,xn)dθ.

6
यह इंगित करने के लायक है कि सामान्य त्रुटियों के साथ रैखिक प्रतिगमन के संदर्भ में, लगातार पूर्वानुमान अंतराल प्लग-इन अनुमानकर्ताओं के बजाय महत्वपूर्ण आँकड़ों पर आधारित होते हैं और विशिष्ट noninformative priors (संयुक्त रूप से s) के तहत बायेसियन अंतराल के समान होते हैं और )। एल जी ( σ 2 )βlog(σ2)
सियान

@ सियान की टिप्पणी से संबंधित

4

इसके कई कारण हैं:

  1. परीक्षण आँकड़ों या आत्मविश्वास के अंतराल का निर्माण करने वाली कई स्थितियों में, काफी मुश्किल है, क्योंकि एक सामान्य लिंक फ़ंक्शन का उपयोग करने के बाद भी - साथ काम करने के लिए, अक्सर विरल डेटा स्थितियों के लिए बहुत अच्छी तरह से काम नहीं कर रहे हैं। MCMC के माध्यम से कार्यान्वित किए जाने वाले असंक्रामक पादरियों के साथ बेयसियन इंजेक्शन का उपयोग करके आप इसके आस-पास प्राप्त करते हैं (नीचे दिए गए कैविएट के लिए)।±SE
  2. बड़े नमूना गुण आमतौर पर कुछ इसी लगातार दृष्टिकोण के समान होते हैं।
  3. "उद्देश्य न होने" का आरोप लगने के डर से, वास्तव में हम कितना भी जानते हों, किसी भी पुजारी पर सहमत होने के लिए अक्सर काफी अनिच्छा होती है। अनइनफॉर्मेटिव पादरियों ("कोई पादरियों") का उपयोग करके कोई यह दिखावा कर सकता है कि ऐसा कोई मुद्दा नहीं है, जो कुछ समीक्षकों की आलोचना से बच जाएगा।

अब केवल अनइंफॉर्मेटिव पादरियों का उपयोग करने के पतन के रूप में, जो मुझे लगता है कि सबसे महत्वपूर्ण है और फिर कुछ महत्वपूर्ण तकनीकी पहलुओं में से कुछ के लिए शुरुआत करना:

  1. आपको जो भी मिलता है, उसकी व्याख्या, ईमानदारी से, बहुत हद तक लगातार अनुमान के लिए होती है। आप अपने लगातार होने वाली अधिकतम संभावना को फिर से लेबल नहीं कर सकते क्योंकि बायेसियन अधिकतम एक पोस्टीरियर निष्कर्ष और दावा करते हैं कि यह आपको कई तुलनाओं के बारे में किसी भी चिंता से दूर करता है, कई डेटा को देखता है और आपको संभावना के संदर्भ में सभी कथनों की व्याख्या करने देता है जो कुछ परिकल्पना है सच हैं। निश्चित रूप से, टाइप I त्रुटियां और इसी तरह की लगातार अवधारणाएं हैं, लेकिन हमें जैसा कि वैज्ञानिकों को झूठे दावे करने के बारे में ध्यान रखना चाहिए और हम जानते हैं कि उपरोक्त करने से समस्याएं होती हैं। इनमें से बहुत सारे मुद्दे दूर हो जाते हैं (या कम से कम समस्या से बहुत कम होते हैं), यदि आप चीजों को एक श्रेणीबद्ध मॉडल में एम्बेड करते हैं / कुछ अनुभवजन्य बेयर्स करते हैं, लेकिन यह आमतौर पर आपके मॉडल में आपके पूर्व के लिए आधार (और इसका एक विकल्प स्पष्ट रूप से पादरियों को तैयार करना है) को शामिल करके विश्लेषण प्रक्रिया के माध्यम से स्पष्ट रूप से उत्पन्न करने वाले पुजारियों को उबालता है। इन विचारों को अक्सर नजरअंदाज कर दिया जाता है, मेरी राय में ज्यादातर बेएशियन पी-हैकिंग का संचालन करने के लिए (अर्थात बहुगुणता का परिचय दें, लेकिन इसे अनदेखा करें) एक बहाने की अंजीर की पत्ती के साथ कि यह कोई समस्या नहीं है जब आप बायेसियन विधियों का उपयोग करते हैं (सभी शर्तों को छोड़ दें पूरा करना होगा)।
  2. अधिक "तकनीकी" पक्ष पर, अनइनफॉर्मेटिव पुजारी समस्याग्रस्त हैं, क्योंकि आपको एक उचित पोस्टीरियर की गारंटी नहीं है। कई लोगों ने बेइज़ियन मॉडल को बिना किसी सूचना के पादरी के साथ फिट किया है और यह महसूस नहीं किया है कि पीछे का हिस्सा उचित नहीं है। परिणामस्वरूप MCMC नमूने उत्पन्न हुए जो अनिवार्य रूप से अर्थहीन थे।

अंतिम बिंदु अस्पष्ट (या थोड़ा अधिक कमजोर-सूचनात्मक) पुजारियों को प्राथमिकता देने के लिए एक तर्क है जो एक उचित पश्च सुनिश्चित करते हैं। बेशक, कभी-कभी इनसे नमूना लेना मुश्किल हो सकता है, और यह भी नोटिस करना मुश्किल हो सकता है कि पूरे पीछे के हिस्से की खोज नहीं की गई है। हालाँकि, कई क्षेत्रों में अस्पष्ट (लेकिन उचित) पुजारियों के साथ बायेसियन तरीकों को अक्सरवादी दृष्टिकोण से वास्तव में अच्छे छोटे नमूना गुण दिखाए गए हैं और आप निश्चित रूप से देख सकते हैं कि उन का उपयोग करने के लिए एक तर्क के रूप में, जबकि कुछ हद तक अधिक डेटा के साथ शायद ही होगा। किसी भी अंतर बनाम विधिपूर्वक पादरियों के साथ।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.