बायेसियन फ्रेमवर्क का बार-बार होने पर एक बड़ा फायदा होता है क्योंकि यह बनाने के लिए सही वितरण मान्यताओं को जानने के मामले में "क्रिस्टल बॉल" होने पर निर्भर नहीं करता है। बायेसियन विधियां आपके पास कौन सी जानकारी का उपयोग करने पर निर्भर करती हैं, और उस जानकारी को एक संभावना वितरण में सांकेतिक शब्दों में बदलना जानते हैं।
बायेसियन विधियों का उपयोग मूल रूप से अपनी पूर्ण शक्ति में प्रायिकता सिद्धांत का उपयोग कर रहा है। बेयस प्रमेय कुछ भी नहीं है, लेकिन प्रायिकता सिद्धांत के क्लासिक उत्पाद नियम की एक सीमा है:
p ( θ x | I) = पी ( θ | मैं) पी ( एक्स | θ I) = पी ( एक्स | आई) पी ( θ | x | मैं)
जब तक p ( x | I |) ≠ 0(अर्थात पूर्व सूचना में यह नहीं कहा गया था कि जो देखा गया था वह असंभव था) हम इसके द्वारा विभाजित कर सकते हैं, और इन्हें निष्क्रिय कर सकते हैं। मैंने उपयोग कर लिया हैमैं पूर्व सूचना को निरूपित करने के लिए, जो हमेशा मौजूद रहती है - आप बिना जानकारी के संभाव्यता वितरण को निर्दिष्ट नहीं कर सकते।
अब, अगर आपको लगता है कि बेयस प्रमेय संदिग्ध है, तो तार्किक रूप से, आपको यह भी सोचना चाहिए कि उत्पाद नियम भी संदिग्ध है। आप कॉक्स प्रमेय के समान उत्पाद और योग नियमों को प्राप्त करते हैं , जो यहां एक आगमनात्मक तर्क पा सकते हैं । आवश्यक मान्यताओं की एक और अधिक स्पष्ट सूची यहां पाई जा सकती है ।
जहां तक मुझे पता है, लगातार तर्क एक तार्किक ढांचे के भीतर नींव के एक सेट पर आधारित नहीं है। क्योंकि यह संभाव्यता के कोलमोगोरोव स्वयंसिद्ध का उपयोग करता है, इसलिए संभावना सिद्धांत और सांख्यिकीय अनुमान के बीच कोई संबंध नहीं लगता है। बार-बार होने वाले अविश्वास के लिए कोई स्वयंसिद्ध नहीं हैं जो एक प्रक्रिया को आगे बढ़ाते हैं। सिद्धांत और विधियाँ हैं (अधिकतम संभावना, आत्मविश्वास अंतराल, पी-मान, आदि), और वे अच्छी तरह से काम करते हैं, लेकिन वे अलग-अलग होते हैं और विशेष समस्याओं के लिए विशिष्ट होते हैं। मुझे लगता है कि कट्टरपंथी विधियां अपनी नींव में सबसे अच्छी तरह से अस्पष्ट हैं, कम से कम एक सख्त तार्किक ढांचे के संदर्भ में।
बिंदु के लिए 1व्याख्या के दृष्टिकोण से, समान परिणाम प्राप्त करना कुछ हद तक अप्रासंगिक है। दो प्रक्रियाओं में एक ही परिणाम हो सकता है, लेकिन इसका मतलब यह नहीं है कि वे समकक्ष हैं। अगर मुझे सिर्फ अनुमान लगाना थाθ, और अधिकतम संभावना अनुमान (MLE) का अनुमान लगाने के लिए हुआ, इसका मतलब यह नहीं होगा कि मेरा अनुमान MLE के समान ही अच्छा है।
बिंदु के लिए 2, आपको क्यों चिंतित होना चाहिए कि विभिन्न जानकारी वाले लोग अलग-अलग निष्कर्ष पर आएंगे? गणित में पीएचडी करने वाला कोई व्यक्ति, और उच्च विद्यालय स्तर के गणित वाले किसी व्यक्ति के लिए अलग निष्कर्ष पर आना चाहिए। उनके पास अलग-अलग मात्रा में जानकारी है - हम उनसे सहमति की उम्मीद क्यों करेंगे? जब आप को ज्ञात जानकारी प्रस्तुत की जाती है, तो आप अपना मन बदल देते हैं। यह किस तरह की जानकारी पर निर्भर करता है। बेयस प्रमेय में यह विशेषता है, जैसा कि यह होना चाहिए।
पहले की तुलना में तेज होने पर बनाने के लिए एक समान पूर्व का उपयोग करना अक्सर एक सुविधाजनक सन्निकटन होता है। यह कभी-कभी प्रयास के लायक नहीं है, जिससे गुजरना और ठीक से एक पूर्व निर्धारित करना। इसी तरह, बायसी के आंकड़ों को एमसीएमसी के साथ भ्रमित करने की गलती न करें। MCMC एकीकरण के लिए सिर्फ एक एल्गोरिथ्म है, जो गेशियन क्वाड्रेट्रे के समान है, और लाप्लास सन्निकटन के समान वर्ग में। यह क्वाडरेट की तुलना में थोड़ा अधिक उपयोगी है क्योंकि आप अपने सभी इंटीग्रल्स (पीछे के साधन और संस्करण अभिन्न हैं) करने के लिए एल्गोरिदम के आउटपुट का फिर से उपयोग कर सकते हैं, और थोड़ा अधिक सामान्य है कि लाप्लास क्योंकि आपको एक बड़े नमूने की आवश्यकता नहीं है, या एक पश्च (शिखर में अच्छी तरह से गोल चोटी हालांकि तेज है)।