बेयस के प्रमेय के अनुसार, । लेकिन मेरे अर्थमितीय पाठ के अनुसार, यह कहता है कि । ऐसा क्यों है? मुझे नहीं मिलता कि को अनदेखा क्यों किया गया है।पी ( θ | y ) α पी ( y | θ ) पी ( θ ) पी ( y )
बेयस के प्रमेय के अनुसार, । लेकिन मेरे अर्थमितीय पाठ के अनुसार, यह कहता है कि । ऐसा क्यों है? मुझे नहीं मिलता कि को अनदेखा क्यों किया गया है।पी ( θ | y ) α पी ( y | θ ) पी ( θ ) पी ( y )
जवाबों:
, के सीमांत संभावना , "नजरअंदाज कर दिया।" नहीं है यह बस स्थिर है। द्वारा विभाजित करने पर को "rescaling" करने का प्रभाव होता है, संगणना को उचित संभावनाओं के रूप में मापा जाता है, अर्थात अंतराल पर। इस स्केलिंग के बिना, वे अभी भी पूरी तरह से मान्य सापेक्ष उपाय हैं, लेकिन अंतराल तक सीमित नहीं हैं।पी आर ( y ) पी आर ( y | θ ) पी ( θ ) [ 0 , 1 ]
पी आर ( y ) = ∫ पी आर ( y | θ ) पी आर ( θ ) घ θ को अक्सर "छोड़ दिया जाता है" क्योंकि the का मूल्यांकन करना अक्सर मुश्किल होता है, और यह आमतौर पर सुविधाजनक होता है अप्रत्यक्ष रूप से एकीकरण करने के लिए सिमुलेशन के माध्यम से।
नोटिस जो
चूंकि आप के घनत्व की गणना करने में रुचि रखते हैं , कोई भी फ़ंक्शन जो इस पैरामीटर पर निर्भर नहीं करता है - जैसे - को त्याग दिया जा सकता है। यह आपको देता हैपी ( y )
को छोड़ने का परिणाम यह है कि अब घनत्व ने कुछ गुणों को खो दिया है जैसे कि 1 के डोमेन पर एकीकरण । यह एक बड़ी बात नहीं है क्योंकि आमतौर पर संभावना कार्यों को एकीकृत करने में दिलचस्पी नहीं है, लेकिन उन्हें अधिकतम करने में। और जब आप किसी फ़ंक्शन को अधिकतम कर रहे होते हैं, तो इस फ़ंक्शन को कुछ स्थिरांक से गुणा करें (याद रखें कि, बायेसियन दृष्टिकोण में, डेटा तय है), अधिकतम बिंदु से मेल वाले the को नहीं बदलता है । यह अधिकतम संभावना के मूल्य को बदल देता है, लेकिन फिर, आमतौर पर प्रत्येक की सापेक्ष स्थिति में दिलचस्पी होती है ।पी ( θ | y ) θ y θ θ