संपादन: मैंने एक सरल उदाहरण जोड़ा है: के माध्य का अनुमान । मैंने यह भी थोड़ा स्पष्ट किया है कि विश्वसनीय अंतराल क्यों नहीं मेल खाते आत्मविश्वास अंतराल खराब है।
मैं, काफी हद तक बेइज़ियन, तरह-तरह के विश्वासों के संकट के बीच हूँ।
मेरी समस्या निम्नलिखित है। मान लें कि मैं कुछ IID डेटा का विश्लेषण करना चाहता । मैं क्या करूंगा:
सबसे पहले, एक सशर्त मॉडल प्रस्तावित करें:
उसके बाद, पहले एक : पी ( θ )
अंत में, Bayes का नियम लागू करें, पश्च की गणना करें: (या इसे कुछ सन्निकटन किया जाए यदि यह असुविधाजनक होना चाहिए) और उन सभी प्रश्नों का उत्तर दें जिनके बारे में मेरे पास थीटा है
यह एक समझदार दृष्टिकोण है: यदि डेटा का असली मॉडल वास्तव में मेरी स्थिति के "अंदर" है (यह कुछ मान \ theta_0 से मेल खाता है ), तो मैं यह कहने के लिए सांख्यिकीय निर्णय सिद्धांत पर कॉल कर सकता हूं कि मेरी विधि स्वीकार्य है (देखें रॉबर्ट की) "बायेसियन पसंद" विवरण के लिए; "सभी सांख्यिकी" संबंधित अध्याय में एक स्पष्ट खाता भी देता है)।
हालांकि, जैसा कि हर कोई जानता है, यह मानते हुए कि मेरा मॉडल सही है, काफी घमंडी है: मुझे उन मॉडलों के बॉक्स के अंदर बड़े करीने से क्यों गिरना चाहिए जो मैंने माना है? यह अधिक यथार्थवादी ग्रहण करने के लिए कि डेटा के वास्तविक मॉडल है से अलग है के सभी मानों के लिए । इसे आमतौर पर एक "गलत वर्तनी वाला" मॉडल कहा जाता है।पी ( एक्स | θ ) θ
मेरी समस्या यह है कि, इस अधिक यथार्थवादी गलत ढंग से किए गए मामले में, मेरे पास बायसियन (यानी: पीछे के वितरण की गणना) के लिए कोई अच्छा तर्क नहीं है। बनाम केवल अधिकतम संभावना अनुमानक (MLE) की गणना कर रहा है:
दरअसल, क्लीजन के अनुसार , vd Vaart (2012) , गलत छपे हुए मामले में, पश्च वितरण:
एक पर केंद्रित एक डीरेक वितरण में रूप में परिवर्तित होता है
सही संस्करण (जब तक कि दो मान केवल एक ही होने के लिए नहीं होते हैं) में यह सुनिश्चित करने के लिए कि पीछे के विश्वसनीय मिलान अंतराल लिए विश्वसनीय अंतराल नहीं होते हैं । (ध्यान दें, जबकि विश्वास अंतराल स्पष्ट रूप से कुछ है जो बायेसियन अत्यधिक परवाह नहीं करते हैं, यह गुणात्मक रूप से इसका मतलब है कि पश्च वितरण आंतरिक रूप से गलत है, क्योंकि इसका अर्थ है कि इसके विश्वसनीय अंतराल में सही कवरेज नहीं है)
इस प्रकार, हम एक कम्प्यूटेशनल प्रीमियम का भुगतान कर रहे हैं (सामान्य रूप से बायेसियन इंजेक्शन, MLE से अधिक महंगा है) बिना किसी अतिरिक्त गुण के
इस प्रकार, आखिरकार, मेरा सवाल: क्या कोई तर्क है, क्या सैद्धांतिक या अनुभवजन्य है, जब मॉडल गलत होने पर बायलर के सरल एमएलई विकल्प का उपयोग करने के लिए?
(चूंकि मुझे पता है कि मेरे सवाल अक्सर अस्पष्ट हैं, कृपया मुझे बताएं कि क्या आपको कुछ समझ में नहीं आता है: मैं इसे फिर से लिखने की कोशिश करूंगा)
संपादित करें: आइए एक सरल उदाहरण पर विचार करें: एक गाऊसी मॉडल के तहत का मतलब पता ( आगे भी सरल बनाने के लिए ज्ञात विचरण साथ )। हम एक गाऊसी पूर्व पर विचार: हम निरूपित , पूर्व मतलब पहले का प्रतिलोम विचरण। Let का अनुभवजन्य मतलब है । अंत में, ध्यान दें: ।
पीछे वितरण है:
सही ढंग से निर्दिष्ट मामले में (जब वास्तव में एक गाऊसी वितरण होता है), इस पोस्टीरियर में निम्नलिखित अच्छे गुण हैं
यदि एक पदानुक्रमित मॉडल से उत्पन्न होता है जिसमें उनका साझा मतलब पूर्व वितरण से उठाया जाता है, तो पीछे के विश्वसनीय अंतराल में सटीक कवरेज होता है। डेटा पर सशर्त, किसी भी अंतराल में होने की संभावना इस अंतराल के बराबर होने की संभावना के बराबर है
यहां तक कि अगर पूर्व सही नहीं है, तो विश्वसनीय अंतरालों की सीमा में सही कवरेज है जिसमें पूर्ववर्ती पर प्रभाव गायब हो जाता है
बाद में आगे लगातार अच्छे गुण होते हैं: पश्च से निर्मित कोई भी बायेसियन अनुमानक को स्वीकार्य होने की गारंटी दी जाती है, पीछे का मतलब एक कुशल अनुमानक (क्रैमर-राव अर्थ में) है, विश्वसनीय अंतराल हैं, asymptotically, विश्वास अंतराल।
गलत वर्तनी वाले मामले में, इनमें से अधिकांश गुण सिद्धांत द्वारा गारंटीकृत नहीं हैं। विचारों को ठीक करने के लिए, मान लें कि लिए असली मॉडल यह है कि वे इसके बजाय छात्र वितरण हैं। एकमात्र संपत्ति जिसे हम गारंटी दे सकते हैं (क्लेजन एट अल) यह है कि पीछे का वितरण के वास्तविक अर्थ पर ध्यान केंद्रित करता है सीमा । सामान्य तौर पर, सभी कवरेज गुण गायब हो जाएंगे। इससे भी बदतर, सामान्य तौर पर, हम गारंटी दे सकते हैं कि, उस सीमा में, कवरेज गुण मौलिक रूप से गलत हैं: पीछे वितरण अंतरिक्ष के विभिन्न क्षेत्रों में गलत संभावना को बताता है।