@ बीन द्वारा लघु उत्तर इसे बहुत अच्छी तरह से समझाता है। हालांकि, मैं पेपर के खंड 1.1 की ओर इशारा करना चाहता हूं, जो कि रेसबिक और हार्डीस्टी द्वारा किए गए बिना कागज के गिब्स सैंपलिंग है जो इस मामले को और अधिक गहराई तक ले जाता है। मैं इस पेपर से बहुत कम संशोधनों के साथ कुछ पंक्तियां लिख रहा हूं (यह उत्तर कुछ चीजों को दोहराता है जो ओपी पूर्णता के लिए जानता है)
MLE
औपचारिक रूप से MLE पसंद (मॉडल पैरामीटर का) का उत्पादन करता है जो कि देखे गए डेटा को उत्पन्न करने की सबसे अधिक संभावना है।
नक्शा
एक एमएपी अनुमानित विकल्प है जिसे सबसे अधिक संभावना है कि मनाया गया डेटा दिया गया है। MLE के विपरीत, MAP अनुमान बेयस नियम को लागू करता है, ताकि हमारा अनुमान पूर्व ज्ञान को ध्यान में रख सके कि हम अपने पैरामीटर को पूर्व संभाव्यता वितरण के रूप में क्या होने की उम्मीद करते हैं।
पकड़
MLE और MAP अनुमान दोनों हमें सबसे अच्छा अनुमान दे रहे हैं, "सर्वश्रेष्ठ" के उनके संबंधित डे nitions के अनुसार। लेकिन ध्यान दें कि किसी एकल अनुमान का उपयोग करना - चाहे वह MLE हो या MAP - जानकारी फेंकता है। सिद्धांत रूप में, पैरामीटर का कोई भी मान हो सकता है (डोमेन से); यदि हम पैरामीटर के लिए सिर्फ एक अनुमानित मूल्य के बजाय पूरे वितरण को ध्यान में रखते हुए बेहतर अनुमान नहीं लगा सकते हैं? यदि हम ऐसा करते हैं, तो हम पैरामीटर के बारे में सभी जानकारी का उपयोग कर रहे हैं जिसे हम देखे गए डेटा, एक्स से लिख सकते हैं।
इसलिए इस कैच के साथ, हम उनमें से किसी का भी उपयोग करना चाहते हैं। इसके अलावा, जैसा कि पहले ही सेम और टिम द्वारा उल्लेख किया गया है, अगर आपको उनमें से एक का उपयोग करना है, तो एमएपी का उपयोग करें यदि आपको पहले मिला था। यदि आपके पास पुजारी नहीं हैं, तो MAP MLE में कम हो जाता है। संयुग्म पुजारी विश्लेषणात्मक रूप से समस्या को हल करने में मदद करेंगे, अन्यथा गिब्स नमूनाकरण का उपयोग करें।