यदि हम पहले से ही वितरण को कम कर देते हैं तो पिछले वितरण से नमूना लेना क्यों आवश्यक है?


19

मेरी समझ यह है कि पैरामीटर मानों का अनुमान लगाने के लिए बायेसियन दृष्टिकोण का उपयोग करते समय:

  • पिछला वितरण पूर्व वितरण और संभावना वितरण का संयोजन है।
  • हम इसे पोस्टीरियर डिस्ट्रीब्यूशन (उदाहरण के लिए एक मेट्रोपोलिस-हस्टिंग एल्गोरिथ्म का उपयोग करके मान उत्पन्न करने के लिए, और अगर वे पोस्टीरियर डिस्ट्रीब्यूशन से संबंधित होने की संभावना की एक निश्चित सीमा से ऊपर हैं, तो उन्हें स्वीकार करते हैं) से एक नमूना बनाकर इसका अनुकरण करते हैं।
  • एक बार जब हम यह नमूना तैयार कर लेते हैं, तो हम इसका उपयोग पश्च वितरण और उसके अर्थ जैसी चीजों के बारे में अनुमान लगाने के लिए करते हैं।

लेकिन, मुझे लगता है कि मुझे कुछ गलत समझना चाहिए। ऐसा लगता है कि हमारे पास एक बाद का वितरण है और फिर उससे नमूना है, और फिर उस नमूने का उपयोग पश्च वितरण के सन्निकटन के रूप में करें। लेकिन अगर हमारे पास इसका वितरण पहले से शुरू है तो हमें इसे लगभग अनुमानित करने के लिए नमूना लेने की आवश्यकता क्यों है?

जवाबों:


20

इस प्रश्न पर इस मंच पर पहले ही विचार कर लिया गया है।

जब आप कहते हैं कि आपके पास "पीछे वितरण" है, तो वास्तव में आपका क्या मतलब है? "का होना" के एक समारोह कि मैं जानता हूँ कि पीछे, अर्थात् के लिए आनुपातिक है π ( θ | एक्स ) अल्फा π ( θ ) × ( एक्स | θ ) उदाहरण के लिए पूरी तरह से कृत्रिम लक्ष्य π ( θ | एक्स ) अल्फा exp { - | | θ - x | | 2 - | | θ + xθ

π(θ|x)π(θ)×f(x|θ)
मुझे बता नहीं है क्या
π(θ|x)exp{||θx||2||θ+x||4||θ2x||6},  x,θR18,
  1. के एक समारोह के पीछे उम्मीद , जैसे, [ ( θ ) | x ] , पीछे का मतलब है कि मानक नुकसान के तहत एक बायेसियन अनुमानक के रूप में कार्य करता है;θE[h(θ)|x]
  2. एक मनमाना उपयोगिता फ़ंक्शन के तहत इष्टतम निर्णय, वह निर्णय जो अपेक्षित पीछे के नुकसान को कम करता है;
  3. पैरामीटर (ओं) पर एक 90% या 95% अनिश्चितता की सीमा, पैरामीटर (एस) के एक उप-वेक्टर, या पैरामीटर (एस) के एक फ़ंक्शन, उर्फ ​​एचपीडी क्षेत्र
    {h=h(θ); πh(h)h_}
  4. विशिष्ट मानों बनाम उन्हें (और यादृच्छिक) रखने के लिए पैरामीटर के कुछ घटकों को निर्धारित करने के लिए चुनने की सबसे अधिक संभावना वाला मॉडल।

ये केवल वितरण के कई उपयोगों के उदाहरण हैं। सभी मामलों में लेकिन सबसे सरल वाले, मैं उत्तर वितरण घनत्व को घूरकर जवाब नहीं दे सकता हूं और मोंटे कार्लो और मार्कोव श्रृंखला मोंटे कार्लो विधियों जैसे संख्यात्मक संकल्पों के माध्यम से आगे बढ़ने की आवश्यकता है।


जवाब शीआन के लिए बहुत बहुत धन्यवाद। मुझे यकीन है कि यह मेरे सवाल का जवाब देता है, लेकिन मुझे अभी भी इसे समझने में थोड़ी कठिनाई हो रही है। क्या मैं सही हूं कि हमारे पास पोस्टीरियर (पूर्व और संभावना के संयोजन द्वारा) के अनुरूप संभावना घनत्व फ़ंक्शन है? सैंपल पोस्टीरियर डिस्ट्रीब्यूशन के बजाय हम इससे 95% CI को सीधे क्यों नहीं पा सकते हैं?
डेव

2
@ मुझे लगता है कि कुंजी यहाँ है जिसका मतलब है कि आपके पास "है।" सामान्य तौर पर आपके पास एक बंद फ़ॉर्म समाधान नहीं होगा, इसलिए आपके पास एक उपयोगी अर्थ में फ़ंक्शन "नहीं" होगा।
भिक्षु

@ उत्तर के लिए धन्यवाद! क्या आप इस बात पर विस्तार से विचार करते हैं कि एक गैर-बंद फॉर्म समाधान क्या है?
डेव

2
मान लें कि आपका पूर्व बीटा (ए, बी) है और आपकी संभावना द्विपद (एन, पी) है। आप अपने पीछे के अपेक्षित मूल्य की गणना कैसे करते हैं? कलम और कागज के साथ उस उत्पाद के अभिन्न अंग का काम करने की कोशिश करें। सामान्य तौर पर, इस तरह के एक अभिन्न कुछ के लिए एक सटीक मूल्य प्राप्त करने के लिए कंप्यूटर की आवश्यकता होगी। वैकल्पिक रूप से, आप यह जान सकते हैं कि बायोमियल से पहले बीटा संयुग्मित होता है, और इसलिए पश्च बीटा बीटा होगा (आसानी से गणना योग्य मापदंडों के साथ)। लेकिन अक्सर आप इतने भाग्यशाली नहीं होंगे। "बंद फ़ॉर्म" की परिभाषा को कम करना कठिन है, और इसके बारे में पढ़ने के लायक है।
भिक्षु

5

हाँ, आपके पास एक विश्लेषणात्मक पश्च वितरण हो सकता है। लेकिन बायेसियन विश्लेषण का मूल मापदंडों के पीछे वितरण पर हाशिए पर है ताकि आपको सटीकता और सामान्यीकरण क्षमता दोनों के बारे में बेहतर भविष्यवाणी का परिणाम मिल सके। मूल रूप से, आप एक पूर्वानुमान वितरण प्राप्त करना चाहते हैं जिसका निम्न रूप है।

p(x|D)=p(x|w)p(w|D)dw

p(w|D)p(w|D)p(x|w)

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.