जवाबों:
(यह एक आश्चर्य पिछले जवाब है, जो जब पूर्व उचित है पीछे के संभावित अनुचित पर ध्यान केंद्रित को पढ़ने के लिए कुछ हद तक है के बाद से, जहाँ तक मैं बता सकता हूँ, प्रश्न या नहीं, पीछे हो गया है है उचित ( यानी, एक के बराबर) एक होने के लिए उचित होने के लिए (यानी, बायेसियन निष्कर्ष के लिए स्वीकार्य) पीछे।
बायेसियन आँकड़ों में, पीछे के वितरण को प्रायिकता वितरण होना होता है, जहाँ से किसी के बाद के क्षणों को व्युत्पन्न किया जा सकता है जैसे कि और एक विश्वसनीय क्षेत्र के कवरेज की तरह संभावना बयान, पी ( π ( θ | एक्स ) > κ | एक्स ) । यदि ∫ च ( एक्स | θ पश्च π ( θ | x ) को एक प्रायिकता घनत्व में सामान्यीकृत नहीं किया जा सकता है और बायेसियन इंट्रेंस केवल संचालित नहीं किया जा सकता है। इस तरह के मामलों में बस पश्च मौजूद नहीं होता है।
दरअसल, (1) नमूना स्थान में सभी लिए होना चाहिए और न केवल मनाया एक्स के लिए, अन्यथा, पहले का चयन करना डेटा पर निर्भर करेगा । इसका मतलब है कि हाल्डेन की पूर्व की तरह महंतों π ( पी ) α { 1 / पी ( 1 - पी ) } , संभावना पर पी एक द्विपद या एक नकारात्मक द्विपद चर के एक्स , नहीं किया जा सकता क्योंकि पीछे के लिए निर्धारित नहीं है x = ० ।
मुझे एक अपवाद का पता है जब कोई "अनुचित डाकिया" पर विचार कर सकता है: यह डेविड वैन डाइक और जिओ-ली मेंग द्वारा "द आर्ट ऑफ डेटा ऑगमेंटेशन" में पाया गया है । अनुचित उपाय खत्म हो गया है एक तथाकथित काम कर पैरामीटर इस तरह के अवलोकन एक संवर्धित वितरण के सीमांत द्वारा निर्मित है कि च ( एक्स | θ ) = ∫ टी ( एक्स अगस्त ) = x च ( एक्स अगस्त | θ , α ) और वैन डाइक और मेंग नेMCMC द्वारा π ( θ | x ) (जो एक संभावना घनत्व के रूप में अच्छी तरह से परिभाषित किया गया है ) के अनुकरण को गति देने के लिएइस वर्किंग पैरामीटर α परअनुचित पूर्व p ( α ) डाला।
एक अन्य परिप्रेक्ष्य में, कुछ हद तक eretmochelys द्वारा जवाब से संबंधित , बायेसियन निर्णय सिद्धांत के एक परिप्रेक्ष्य , एक सेटिंग जहां (1) तब भी स्वीकार्य हो सकती है अगर यह इष्टतम निर्णय लेती है । अर्थात, यदि एक नुकसान समारोह निर्णय का उपयोग कर के प्रभाव का मूल्यांकन है δ , एक बायेसियन इष्टतम निर्णय से पहले के तहत π द्वारा दिया जाता है δ हिन्दी ⋆ ( एक्स ) = आर्ग मिनट δ ∫ एल ( δ , θ ) और जो कुछ मामलों है कि इस अभिन्न हर जगह नहीं है (में है δ अनंत)। होना या न होना (1) धारण की व्युत्पत्ति के लिए माध्यमिक है δ हिन्दी ⋆ ( एक्स ) , भले ही स्वीकार्यता की तरह गुण केवल गारंटी दी जाती है जब (1) आयोजित करता है।
पूर्व वितरण उचित होने पर भी वितरण की आवश्यकता उचित नहीं है। उदाहरण के लिए, मान लीजिए में आकार 0.25 (जो कि उचित है) से पहले एक गामा है, और हम अपने डेटम x को माध्य शून्य और विचरण v के साथ गौसियन वितरण से तैयार करते हैं । मान लीजिए कि x शून्य माना जाता है। तब संभावना p ( x | v ) v - 0.5 के आनुपातिक है , जो v अनुचित के लिए पीछे के वितरण को बनाता है , क्योंकि यह v - 1.25 e - v के समानुपातिक है ।। निरंतर चरों की निराला प्रकृति के कारण यह समस्या उत्पन्न होती है।
सेट को परिभाषित हमारे पास पी आर ( एक्स ∈ नकली डाटा ) = ∫ नकली डाटा ∫ च ( एक्स | θ
शब्दों में: उन नमूना मूल्यों की पूर्ववर्ती संभावित संभावना जो पश्चवर्ती अनुचित को शून्य के बराबर बनाती है।
कहानी का नैतिक: अशक्त सेटों से सावधान रहें, वे काट सकते हैं, हालांकि यह असंभव हो सकता है।
पी एस जैसा कि टिप्पणी में प्रो। रॉबर्ट द्वारा बताया गया है, यह तर्क उड़ा देता है यदि पूर्व अनुचित है।
Any "distribution" must sum (or integrate) to 1. I can think a few examples where one might work with un-normalized distributions, but I am uncomfortable ever calling anything which marginalizes to anything but 1 a "distribution".
Given that you mentioned Bayesian posterior, I bet your question might come from a classification problem of searching for the optimal estimate of given some feature vector
where the last equality comes from the fact that doesn't depend on . We can then choose our exclusively based on the value which is proportional to our Bayesian posterior, but do not confuse it for a probability!
Improper posterior distribution only arises when you're having an improper prior distribution. The implication of this is that the asymptotic results do not hold. As an example, consider a binomial data consisting of success and 0 failures, if using as the prior distribution, then the posterior will be improper. In this situation, the best is to think of a proper prior distribution to substitute your improper prior.