Bayesian विश्लेषण के लिए संभावना बनाम सशर्त वितरण


13

हम बेयस के प्रमेय को लिख सकते हैं

पी(θ|एक्स)=(एक्स|θ)पी(θ)θ(एक्स|θ)पी(θ)θ

जहाँ पश्च है, the सशर्त वितरण है, और पूर्व है।पी(θ|एक्स)(एक्स|θ)पी(θ)

या

पी(θ|एक्स)=एल(θ|एक्स)पी(θ)θएल(θ|एक्स)पी(θ)θ

जहाँ पश्च है, संभावना कार्य है, और पूर्व है।एल ( θ | x ) पी ( θ )पी(θ|एक्स)एल(θ|एक्स)पी(θ)

मेरा सवाल यह है कि

  1. क्यों बायेसियन विश्लेषण संभावना समारोह का उपयोग करके किया जाता है न कि सशर्त वितरण?
  2. क्या आप शब्दों में कह सकते हैं कि संभावना और सशर्त वितरण में क्या अंतर है? मुझे पता है कि संभावना एक संभावना वितरण नहीं है और ।एल(θ|एक्स)α(एक्स|θ)

1
इसमें कोई फर्क नही है! संभावना है कि सशर्त वितरण the , ठीक है, आनुपातिक है, जो कि सभी मायने रखता है। f(X|θ)
kjetil b halvorsen

1
पूर्व पैरामीटर में घनत्व । अगर की प्राप्ति महत्व है जबकि एक यादृच्छिक चर का मनाया मूल्य है , तो संभावना फंक्शन का मान है ठीक , मूल्य सशर्त घनत्व के की । अंतर यह है कि के लिए सभी की प्रतीति । हालाँकि, एक समारोह के रूप मेंपी Θ ( θ ) Θ θ एक्स एक्स एल ( θ | x ) ( एक्स | θ ) एक्स | Θ ( एक्स | Θ = θ ) एक्स - एक्स | Θ ( एक्स | Θ = θ ) एक्स = 1 θ θ एक्स एल ( θ | xΘpΘ(θ)ΘθxXL(θx) f(xθ)fXΘ(एक्स|Θ=θ)एक्स
-एक्स|Θ(एक्स|Θ=θ)एक्स=1
Θθ(और फिक्स्ड ), है नहीं एक घनत्व:एक्स एल ( θ | एक्स ) θ 1L(θ|एक्स)
एल(θ|एक्स)θ1
दिलीप Sarwate

जवाबों:


11

मान लीजिए कि आपके पास दिया यादृच्छिक चर (जिनके मान अपने प्रयोग में देखा जाएगा) जो परिस्थिति के स्वतंत्र हैं, कि के साथ, सशर्त घनत्व , । यह आपके (माने) सांख्यिकीय (सशर्त) मॉडल है, और सशर्त घनत्व प्रत्येक संभव मूल्य के लिए, व्यक्त (यादृच्छिक) के पैरामीटर , के मूल्यों के बारे में अपने अनिश्चितता की, इससे पहले कि आप किसी भी करने के लिए उपयोग कर सकते है वास्तविक डेटा। उदाहरण के लिए, आप कर सकते हैं सशर्त घनत्व की मदद से, सशर्त संभावनाओं की गणना करें Θ = θ एक्स मैं | Θ (एक्स1,...,एक्सnΘ=θमैं = 1 , ... , n θ Θ एक्स मैं पी { एक्स 1बी 1 , ... , एक्स एनबी एन | Θ = θ } = बी 1 × × बी एन एन Π मैं = 1एक्स मैं | θ ( एक्स मैं | θ )एक्समैं|Θ(|θ)मैं=1,...,nθΘएक्समैं

पी{एक्स1बी1,...,एक्सnबीn|Θ=θ}=बी1××बीnΠमैं=1nएक्समैं|Θ(एक्समैं|θ)एक्स1...एक्सn,
प्रत्येक ।θ

के मानों (वास्तविकताओं) के वास्तविक नमूने ) तक के बाद, जिन्हें आपके प्रयोग के एक भाग में देखा गया है, स्थिति बदल जाती है: बारे में अनिश्चितता नहीं है । मान लीजिए कि random कुछ पैरामीटर space में मान लेता है । अब, आप उन ज्ञात (निश्चित) मानों एक फ़ंक्शन द्वारा ध्यान दें कि , जिसे "संभावना फ़ंक्शन" के रूप में जाना जाता है, एक फ़ंक्शन है(एक्स1,...,एक्सn)एक्समैंएक्स1,...,एक्सnΘΠ(एक्स1,...,एक्सn)

एलएक्स1,...,एक्सn:Πआर
एल एक्स 1 , ... , एक्स एन θ एल एक्स 1 , ... , एक्स एन Θ ( एक्स 1 , ... , x n ) एल एक्स 1 , ... , एक्स एन Θ
एलएक्स1,...,एक्सn(θ)=Πमैं=1nएक्समैं|Θ(एक्समैं|θ)
एलएक्स1,...,एक्सnθ । इस "आपके पास डेटा होने के बाद" स्थिति में, विशेष रूप से सशर्त मॉडल के लिए सम्‍मिलित है , जिस पर हम विचार कर रहे हैं, इस विशेष नमूने में मौजूद पैरामीटर बारे में सभी जानकारी । वास्तव में, ऐसा होता है कि लिए एक पर्याप्त आँकड़ा है ।एलएक्स1,...,एक्सnΘ(एक्स1,...,एक्सn)एलएक्स1,...,एक्सnΘ

अपने प्रश्न का उत्तर देते हुए, सशर्त घनत्व और संभावना की अवधारणाओं के बीच के अंतर को समझने के लिए, उनकी गणितीय परिभाषाओं को ध्यान में रखें (जो स्पष्ट रूप से भिन्न हैं: वे अलग-अलग गणितीय वस्तुएं हैं, विभिन्न गुणों के साथ), और यह भी याद रखें कि सशर्त घनत्व एक "पूर्व" है "नमूना" वस्तु / अवधारणा, जबकि संभावना एक "नमूना" के बाद है। मुझे उम्मीद है कि यह सब आपको यह उत्तर देने में भी मदद करेगा कि बायेसियन इनवेंशन (इसे लगाने के आपके तरीके का उपयोग करते हुए, जो मुझे नहीं लगता कि आदर्श है) "लाइसेबिलिटी फ़ंक्शन का उपयोग करके और सशर्त वितरण का उपयोग नहीं किया जाता है": बायेसियन इनवेंशन का लक्ष्य है बाद के वितरण की गणना करने के लिए, और ऐसा करने के लिए हम अवलोकन (ज्ञात) डेटा पर शर्त लगाते हैं


मुझे लगता है कि ज़ेन सही है जब वह कहता है कि संभावना और सशर्त संभावना अलग हैं। संभावना समारोह में function एक यादृच्छिक चर नहीं है, इस प्रकार यह सशर्त संभावना से अलग है।
मार्टिन

2

आनुपातिकता का उपयोग विश्लेषण को सरल बनाने के लिए किया जाता है

(एक्स|θ)

पी(θ|एक्स)αएलएक्स(θ)पी(θ)एलएक्स(θ)αΠमैं=1n(एक्समैं|θ)

θ

θ

एक्स1,,एक्सn~IID एन(θ,1)एक्स¯=1nΣमैं=1nएक्समैंएक्स¯¯=1nΣमैं=1nएक्समैं2

(एक्स|θ)=Πमैं=1n(एक्समैं|θ)=Πमैं=1nएन(एक्समैं|θ,1)=Πमैं=1n12πexp(-12(एक्समैं-θ)2)=(2π)n/2exp(-12Σमैं=1n(एक्समैं-θ)2)=(2π)n/2exp(-n2(θ2-2एक्स¯θ+एक्स¯¯))=(2π)n/2exp(-nएक्स¯¯2)exp(-n2(θ2-2एक्स¯θ))

θ

एलएक्स(θ)=exp(-n2(θ2-2एक्स¯θ))

θθ~एन(0,λ0)λ0>0

पी(θ|एक्स)αएलएक्स(θ)पी(θ)=exp(-n2(θ2-2एक्स¯θ))एन(θ|0,λ0)αexp(-n2(θ2-2एक्स¯θ))exp(-λ02θ2)=exp(-12(nθ2-2nएक्स¯θ+λ0θ2))=exp(-12((n+λ0)θ2-2nएक्स¯θ))=exp(-n+λ02(θ2-2nएक्स¯n+λ0θ))αexp(-n+λ02(θ-nn+λ0एक्स¯)2)αएन(θ|nn+λ0एक्स¯,n+λ0)

इसलिए, इस कार्य से हम देख सकते हैं कि पीछे वितरण एक सामान्य घनत्व के समानुपाती है। के बाद से पीछे चाहिए होना एक घनत्व यह संकेत मिलता है कि पीछे है कि सामान्य घनत्व:

पी(θ|एक्स)=एन(θ|nn+λ0एक्स¯,n+λ0)

θ

(θ|एक्स)=nn+λ0एक्स¯वी(θ|एक्स)=1n+λ0

अब, हमारे द्वारा प्राप्त किया गया पश्च वितरण इसके सामने के भाग को एकीकृत करता है (जिसे हम सामान्य वितरण के रूप को देखकर आसानी से जान सकते हैं )। लेकिन ध्यान दें कि हमें इस गुणात्मक स्थिरांक के बारे में चिंता करने की ज़रूरत नहीं थी - जब भी यह गणित सरल होता है तो हमारे सभी काम हटाए गए (या लाए गए) गुणक स्थिरांक होते हैं। गुणक स्थिरांक का ट्रैक रखते हुए एक ही परिणाम प्राप्त किया जा सकता है, लेकिन यह बहुत अधिक गड़बड़ है।


0

मैं

इस मुद्दे पर संभावना समारोह के बारे में इस साइट पर चर्चा किए गए अन्य प्रश्नों में सामने आया है। इसके अलावा केजेटिल और दिलीप की अन्य टिप्पणियाँ जो मैं कह रहा हूं, उसका समर्थन करते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.