क्या आपको एक बायेसियन होने की संभावना सिद्धांत का पालन करना है?


14

यह प्रश्न इस सवाल से प्रेरित है: कब (यदि कभी) एक लगातार दृष्टिकोण एक बायेसियन की तुलना में बेहतर है?

जैसा कि मैंने उस प्रश्न के मेरे समाधान में पोस्ट किया था, मेरी राय में, यदि आप एक निरंतरवादी हैं, तो आपको संभावना सिद्धांत का पालन करने / पालन करने की आवश्यकता नहीं है क्योंकि अक्सर समय आवृत्तियों के तरीकों का उल्लंघन होगा। हालांकि, और यह आमतौर पर उचित पुजारियों की धारणा के तहत होता है, बेयसियन तरीके कभी भी संभावना सिद्धांत का उल्लंघन नहीं करते हैं।

तो अब, यह कहने के लिए कि आप एक बायेसियन हैं जो किसी के विश्वास या समझौते की संभावना सिद्धांत में पुष्टि करते हैं, या यह तर्क है कि बायेसियन होने का सिर्फ इतना अच्छा परिणाम है कि संभावना सिद्धांत का उल्लंघन नहीं होता है?


4
नहीं - जेफ्री को पहले देखें। Bayesian तरीकों से (मजबूत) संभावना सिद्धांत का उल्लंघन हो सकता है।
Scortchi - को पुनः स्थापित मोनिका

6
जी हाँ, जेफ्रीज़ पुजारी और ऐसे समाधान भी जो कई बार डेटा का उपयोग करते हैं जैसे कि पश्चवर्ती भविष्यवाणियां संभावना के सिद्धांत का उल्लंघन करती हैं, लेकिन फिर भी इसे बायेसियन माना जा सकता है ...
शीआन

1
जरुरी नहीं। और मुझे यकीन नहीं है कि इससे क्या फर्क पड़ता है।
Scortchi - को पुनः स्थापित मोनिका

2
द्विपद और नकारात्मक द्विपद के लिए उन की तुलना करें।
Scortchi - को पुनः स्थापित मोनिका

जवाबों:


13

मॉडल मापदंडों के बारे में अनुमान लगाने वाली खराब संभावनाओं की गणना करने के लिए बेयस प्रमेय के उपयोग में, कमजोर संभावना सिद्धांत का स्वचालित रूप से पालन किया जाता है:

posteriorprior×likelihood

फिर भी, कुछ उद्देश्य में बायेसियन दृष्टिकोण नमूना योजना को पूर्व की पसंद निर्धारित करता है, प्रेरणा यह है कि एक असंक्रामक पूर्व को पूर्व और पीछे के वितरण के बीच विचलन को अधिकतम करना चाहिए - जिससे डेटा का यथासंभव प्रभाव हो। इस प्रकार वे मजबूत संभावना सिद्धांत का उल्लंघन करते हैं।

π

PrNB(π)π1(1π)12PrBin(π)π12(1π)12

xn

PrNB(πx,n)Beta(x,nx+12)PrBin(πx,n)Beta(x+12,nx+12)

So observing say 1 success from 10 trials would lead to quite different posterior distributions under the two sampling schemes:

enter image description here

Though following such rules for deriving uninformative priors can sometimes leave you with improper priors, that in itself isn't the root of the violation of the likelhood principle entailed by the practice. An approximation to the Jeffreys prior, π1+c(1π)1/2, कहाँ पे 0<सी«1, काफी उचित है, और पीछे के लिए नगण्य अंतर बनाता है।

आप अपनी जाँच के परिणामस्वरूप मॉडल की जाँच - या कुछ भी करने पर विचार कर सकते हैं - जैसा कि कमजोर संभावना सिद्धांत के विपरीत है; डेटा के सहायक भाग का उपयोग करने का एक प्रमुख मामला।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.