एक आवृत्ति के बारे में बायेसियन निष्कर्ष में बीटा संयुग्म से पहले समझना


11

निम्नलिखित बोल्स्ताद के परिचय बायेसियन सांख्यिकी से एक अंश है ।

मैं टी पढ़ रहा हूं

आप सभी विशेषज्ञों के लिए, यह तुच्छ हो सकता है, लेकिन मुझे यह समझ में नहीं आता है कि लेखक कैसे निष्कर्ष निकालता है कि हमें कुछ मूल्य के लिए पश्च-संभाव्यता की गणना करने के लिए कोई एकीकरण नहीं करना है । मैं दूसरी अभिव्यक्ति को समझता हूं जो आनुपातिकता है और जहां सभी शर्तें आई हैं ( संभावना एक्स प्रायर) । इसके अलावा, मैं समझता हूं, हमें हर के बारे में चिंता करने की ज़रूरत नहीं है क्योंकि केवल अंश सीधे आनुपातिक है। लेकिन तीसरे समीकरण की ओर बढ़ते हुए , क्या हम बेयस नियम के बारे में नहीं भूल रहे हैं? यह कहाँ गया ? और गामा कार्यों द्वारा गणना की गई मान, क्या यह स्थिर नहीं है? बेन्स प्रमेय में स्थिरांक निरस्त नहीं होता है?π


5
केवल एक ही संभव स्थिरांक है, अर्थात् वह जो कार्य को संभाव्यता घनत्व बनाता है।
शीआन

जवाबों:


10

मुद्दा यह है कि हम जानते हैं कि पोस्टीरियर क्या आनुपातिक है और ऐसा होता है कि हमें (निरंतर) हर को प्राप्त करने के लिए एकीकरण करने की आवश्यकता नहीं है, क्योंकि हम समझते हैं कि संभावना घनत्व साथ आनुपातिक घनत्व फ़ंक्शन के साथ एक वितरण। (जैसे कि पीछे) एक बीटा वितरण है। चूँकि इस तरह के बीटा पीडीएफ के लिए सामान्यीकरण स्थिर है , हम एकीकरण के बिना पीछे के पीडीएफ प्राप्त करते हैं। और हाँ, बेयस प्रमेय में सामान्यीकरण स्थिरांक घनत्व के लिए सामान्यीकरण स्थिरांक की तरह एक स्थिरांक (प्रेक्षित डेटा और पूर्व ग्रहण किया हुआ) है।xα1×(1x)β1Γ(α+β)Γ(α)Γ(β)


8

स्थापित करना

आपके पास यह मॉडल है: वे घनत्व जिनके लिए और विशेष रूप से ध्यान दें कि f(p)=1

pbeta(α,β)x|pbinomial(n,p)
f(p)=1B(α,β)pα1(1p)β1
g(x|p)=(nx)px(1p)nx
1B(α,β)=Γ(α+β)Γ(α)Γ(β).

अंतर्निहित संस्करण

अभी। पूर्ववर्ती वितरण संभावना द्वारा गुणा किए गए पूर्व लिए आनुपातिक है । हम स्थिरांक (यानी ऐसी चीजें जो नहीं हैं ), पैदावार को अनदेखा कर सकते हैं : fgp

h(p|x)f(p)g(p|x)=pα1(1p)β1pxpnx=pα+x1(1p)β+nx1.

इसमें पैरामीटर और साथ एक बीटा वितरण का 'आकार' है , और हम जानते हैं कि उन मापदंडों के साथ बीटा वितरण के लिए संगत सामान्य क्या होना चाहिए: । या, गामा फ़ंक्शंस के संदर्भ में, दूसरे शब्दों में हम बिना किसी अतिरिक्त लेगवर्क के आनुपातिक संबंध से थोड़ा बेहतर कर सकते हैं, और सीधे समानता पर जा सकते हैं: α+xβ+nx1/B(α+x,β+nx)

1B(α+x,β+nx)=Γ(n+α+β)Γ(α+x)Γ(β+nx).
h(p|x)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1.

तो एक बीटा वितरण की संरचना के ज्ञान का उपयोग करने के लिए आसानी से पीछे के लिए एक अभिव्यक्ति को पुनर्प्राप्त कर सकते हैं, बजाय कुछ गन्दा एकीकरण और इस तरह के माध्यम से जा रहा है।

यह संयुक्त वितरण के सामान्यीकरण स्थिरांक को रद्द कर, जो भ्रमित हो सकता है, को रद्द करके पूर्ण रूप से पीछे हो जाता है।

स्पष्ट संस्करण

आप चीजों को प्रक्रियात्मक रूप से बाहर भी पीस सकते हैं, जो स्पष्ट हो सकता है।

यह वास्तव में बहुत लंबा नहीं है। ध्यान दें कि हम संयुक्त वितरण को रूप में व्यक्त कर सकते और के सीमांत वितरण के रूप में

f(p)g(x|p)=1B(α,β)(nx)pα+x1(1p)β+nx1
x
01f(p)g(x|p)dp=1B(α,β)(nx)01pα+x1(1p)β+nx1dp=1B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+nx)

इसलिए हम बायर्स प्रमेय का उपयोग करते हुए पीछे की ओर व्यक्त कर सकते हैं वही चीज़ है जो हमें पहले मिली थी।

h(p|x)=f(p)g(x|p)01f(p)g(x|p)dp=1B(α,β)(nx)pα+x1(1p)β+nx11B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+n)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1

7

सामान्य टिप्पणियाँ

@ ब्योर्न द्वारा दिए गए जवाब को थोड़ा और स्पष्ट करने के लिए और एक ही समय में अधिक सामान्य होने पर, हमें याद रखना चाहिए कि हम बेयस प्रमेय से पहुंचे

p(θ|X)×p(X)=p(X,θ)=p(X|θ)×p(θ)

p(θ|X)=p(X|θ)×p(θ)p(X) (बेय्स थॉम)

जहां देखे गए डेटा का प्रतिनिधित्व करता है और हमारे अज्ञात पैरामीटर को बारे में हम संभावित संभावनाओं के बारे में बताना चाहते हैं - सवाल के मामले में पैरामीटर एक अज्ञात आवृत्ति । आइए अब इसके लिए चिंता न करें कि हम इसे सरल रखने के लिए वैक्टर या स्केलर के बारे में बात कर रहे हैं।Xθπ

निरंतर मामले में हाशिए पर ले जाता है

p(X)=+p(X,θ)dθ=+p(X|θ)×p(θ)dθ

जहां संयुक्त वितरण तरह बराबर है जैसा कि हमने ऊपर देखा है। यह एक निरंतरता है क्योंकि 'इंटीग्रेटिंग आउट' पैरामीटर के बाद यह केवल निरंतर शर्तों पर निर्भर करता है ।p(X,θ)likelihood×prior

इसलिए हम कर सकते हैं Bayes प्रमेय को पुन: के रूप में

p(θ|X)=Const.×p(X|θ)×p(θ) साथConst.=1p(X)=1p(X|θ)×p(θ)dθ

और इस तरह बेएस प्रमेय के सामान्य आनुपातिक रूप में पहुंचते हैं ।

समस्या एक हाथ करने के लिए आवेदन

अब हम इस बात को समझने के लिए तैयार हैं कि प्रश्न के मामले में से हम क्या जानते हैंlikelihood×prior

p(X,θ)=p(X|θ)×p(θ)=Aθa+y1(1θ)b+ny1=Aθa1(1θ)b1

जहाँ , और जहाँ द्विपद की संभावना और बीटा से निरंतर शब्दों को एकत्रित करता है पहले।a=a+yb=b+nyA=1B(a,b)(ny)

अब हम @ ब्योर्न द्वारा दिए गए उत्तर का उपयोग कर सकते हैं ताकि यह पता चल सके कि यह बीटा फ़ंक्शन के साथ निरंतर शब्दों के संग्रह का है।B(a,b)A

p(X)=A01θa1(1θ)b1dθ=AB(a,b)

p(θ|X)=Aθa1(1θ)b1AB(a,b)=θa1(1θ)b1B(a,b)

ध्यान दें, कि संयुक्त वितरण में कोई भी स्थिर पद हमेशा के लिए रद्द हो जाएगा, क्योंकि यह एक ही समय में नामांकनकर्ता और भाजक में दिखाई देगा (cf. @jtobin द्वारा दिया गया उत्तर) ताकि हमें वास्तव में परेशान न होना पड़े।

इस प्रकार हम समझते हैं कि हमारा पीछे का वितरण वास्तव में एक बीटा वितरण है जहां हम पूर्व के मापदंडों और को पीछे की तरफ आने के लिए अपडेट कर सकते हैं । यही कारण है कि पहले वितरित किए गए बीटा को पूर्ववर्ती संयुग्म कहा जाता है ।a=a+yb=b+ny


यह तर्क जेटोबिन के निहित संस्करण के समान है। हम केवल संभावना समय के कुछ हिस्सों को देखते हैं, जिसमें पैरामीटर शामिल हैं और सामान्यीकरण स्थिरांक में बाकी सब कुछ इकट्ठा करते हैं। इस प्रकार हम एकीकरण को केवल एक अंतिम चरण के रूप में देखते हैं जो कि वैध है, क्योंकि स्थिरांक रद्द कर देते हैं जैसा कि जेटोबिन ने अपने स्पष्ट संस्करण में दिखाया है।
ग्रेटर
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.