कृपया मुझे बायेसियन अनुमान और अधिकतम संभावना अनुमान में अंतर समझाएं?
कृपया मुझे बायेसियन अनुमान और अधिकतम संभावना अनुमान में अंतर समझाएं?
जवाबों:
यह एक बहुत ही व्यापक प्रश्न है और यहाँ मेरा उत्तर केवल सतह को थोड़ा खरोंचना शुरू करता है। मैं अवधारणाओं को समझाने के लिए बेयस नियम का उपयोग करूंगा।
मान लेते हैं कि प्रायिकता वितरण मापदंडों का एक सेट , the , सर्वोत्तम डेटासेट समझाता है । हम Bayes नियम की मदद से पैरामीटर का अनुमान लगाना चाहते हैं :डी θ
स्पष्टीकरण का पालन करें:
अधिकतम संभावना अनुमान
MLE के साथ, हम लिए एक बिंदु मान चाहते हैं, जो संभावना को अधिकतम करता है, the , जो कि समीकरण (ओं) में दिखाया गया है। हम इस मूल्य को रूप में निरूपित कर सकते हैं । MLE में, एक बिंदु अनुमान है, न कि एक यादृच्छिक चर।
दूसरे शब्दों में, उपरोक्त समीकरण में, MLE एक स्थिर के रूप में शब्द को मानता है और हमें हमारी पूर्व मान्यताओं, को इंजेक्ट करने की अनुमति नहीं देता है , के बारे में अनुमान गणना में लिए संभावित मान ।
बायेसियन अनुमान
बायेसियन अनुमान, इसके विपरीत, पूरी तरह से गणना करता है (या कई बार अनुमानित करता है) पश्च वितरण । बेइज़ियन इनवेंशन एक यादृच्छिक चर के रूप में को मानता है । बेयसियन आकलन में, हम संभाव्यता घनत्व कार्यों में डालते हैं और MLE की तरह एकल बिंदु के बजाय प्रायिकता घनत्व फ़ंक्शन प्राप्त करते हैं।
आउटपुट डिस्ट्रिब्यूशन द्वारा संभव किए गए सभी मूल्यों में से , यह हमारा काम है कि हम एक ऐसे मूल्य का चयन करें जिसे हम कुछ अर्थों में सर्वश्रेष्ठ मानते हैं। उदाहरण के लिए, हम के अपेक्षित मान को चुन सकते हैं । विचरण जिसे हम इसके पीछे वितरण से पैरामीटर लिए गणना कर सकते हैं, हमें किसी भी विशिष्ट मूल्य में हमारे विश्वास को व्यक्त करने की अनुमति देता है जिसका हम अनुमान के रूप में उपयोग कर सकते हैं। यदि विचरण बहुत बड़ा है, तो हम यह घोषणा कर सकते हैं कि लिए एक अच्छा अनुमान मौजूद नहीं है ।
एक व्यापार बंद के रूप में, बेयसियन अनुमान इस तथ्य से जटिल बना है कि हमें अब बेयर्स नियम में के साथ व्यवहार करना होगा, अर्थात । यहाँ साक्ष्य-साक्ष्य की संभावना- द्वारा दर्शाया गया है:
यह बेयसियन अनुमान में 'संयुग्मक पुजारियों' की अवधारणा की ओर जाता है। किसी दिए गए संभावना समारोह के लिए, यदि हमारे पास कोई विकल्प है कि हम अपनी पूर्व मान्यताओं को कैसे व्यक्त करते हैं, तो हमें उस फॉर्म का उपयोग करना चाहिए जो हमें ऊपर दिखाए गए एकीकरण को पूरा करने की अनुमति देता है। पुजारी और उन्हें व्यावहारिक रूप से कैसे लागू किया जाता है, इस विचार को इस पोस्ट में COOlSerdash द्वारा काफी अच्छी तरह से समझाया गया है।
मुझे लगता है कि आप पैरामीट्रिक अनुमान के रूप में बिंदु अनुमान के बारे में बात कर रहे हैं, ताकि हम डेटा उत्पन्न करने वाले तंत्र के लिए पैरामीट्रिक संभाव्यता मॉडल मान सकें लेकिन पैरामीटर का वास्तविक मूल्य अज्ञात है।
अधिकतम संभावना अनुमान डेटा के लिए संभाव्यता मॉडल का उपयोग करने और एक या अधिक मापदंडों पर देखे गए डेटा के संयुक्त संभावना फ़ंक्शन का अनुकूलन करने के लिए संदर्भित करता है। इसलिए यह देखा गया है कि अनुमानित पैरामीटर पैरामीटर स्पेस के किसी अन्य पैरामीटर के सापेक्ष देखे गए डेटा के साथ सबसे अधिक सुसंगत हैं। ध्यान दें कि इस तरह के संभावित कार्यों को मापदंडों पर "सशर्त" होने के रूप में नहीं देखा जाता है क्योंकि पैरामीटर यादृच्छिक चर नहीं हैं, इसलिए यह दो अलग-अलग मापदंडों की तुलना में विभिन्न परिणामों की संभावना के गर्भ धारण करने के लिए कुछ अधिक परिष्कृत है। यह पता चलता है कि यह एक दार्शनिक रूप से ध्वनि दृष्टिकोण है।
बायेसियन का अनुमान थोड़ा अधिक सामान्य है क्योंकि हम संभावित रूप से संभावना (पोस्टीरियर घनत्व) के बायेसियन एनालॉग को अधिकतम नहीं कर रहे हैं। हालांकि, डेटा पर पश्च पैरामीटर सशर्त की संभावना को अधिकतम करने के रूप में अनुमान के अनुरूप प्रकार (या पश्च मोड मोड) को देखा जाता है। आमतौर पर, इस तरह से प्राप्त बेयस के अनुमान एमएल के समान व्यवहार करते हैं। मुख्य अंतर यह है कि बेयस इनवेंशन पूर्व सूचना को शामिल करने के लिए एक स्पष्ट विधि की अनुमति देता है।
इसके अलावा 'अधिकतम संभावना के महाकाव्य इतिहास एक रोशन पढ़ने के लिए बनाता है
बायेसियन का अनुमान बेयसियन अनुमान है जबकि एमएलई एक प्रकार का बार-बार होने वाला निष्कर्ष है।
बायेसियन इंविक्शन के अनुसार, रखती है, कि । ध्यान दें कि अधिकतम संभावना अनुमान एक साक्ष्य के रूप में पूर्व के प्रमाणों के अनुपात को मानता है (पूर्व वितरण को समान वितरण के रूप में निर्धारित करता है, उदाहरण के लिए पासा खेलने में ), जो पूर्व मान्यताओं को छोड़ देता है, इस प्रकार MLE एक लगातार तकनीक (बायेसियन के बजाय) माना जाता है। और इस परिदृश्य में पूर्व समान नहीं हो सकता है, क्योंकि यदि नमूने एमएपी के लिए पर्याप्त मात्रा में MLE हैं (विस्तृत कटौती के लिए कृपया इस उत्तर को देखें )। एलमैंkईएलमैंजओओडी=पीओएसटीईआरमैंओआर*ईवीमैंdईएनसीई पी(θ)=1/6
बायसियन इंट्रेंस में MLE के विकल्प को अधिकतम पोस्टीरियर आकलन (शॉर्ट के लिए MAP) कहा जाता है, और वास्तव में MLE MAP का एक विशेष मामला है जहां पूर्व एक समान है, जैसा कि हम ऊपर देखते हैं और जैसा कि विकिपीडिया में कहा गया है :
बायेसियन इंट्रेंस के दृष्टिकोण से, MLE अधिकतम पोस्टीरियर आकलन (MAP) का एक विशेष मामला है जो मापदंडों के एक समान पूर्व वितरण को मानता है।
जानकारी के लिए कृपया इस भयानक लेख का संदर्भ लें: MLE vs MAP: अधिकतम संभावना और अधिकतम ए पोस्टवर्डी अनुमान के बीच संबंध ।
और एक और अंतर यह है कि अधिकतम संभावना अति-प्रवण है, लेकिन यदि आप बायेसियन दृष्टिकोण अपनाते हैं तो ओवर-फिटिंग की समस्या से बचा जा सकता है।