अधिकतम संभावना अनुमान (MLE) बनाम कम से कम वर्गों के अनुमानों (LSE) के बीच मुख्य अंतर क्या है?
हम रैखिक प्रतिगमन और इसके विपरीत में मूल्यों की भविष्यवाणी के लिए MLE का उपयोग क्यों नहीं कर सकते हैं?
इस विषय पर किसी भी मदद की बहुत सराहना की जाएगी।
अधिकतम संभावना अनुमान (MLE) बनाम कम से कम वर्गों के अनुमानों (LSE) के बीच मुख्य अंतर क्या है?
हम रैखिक प्रतिगमन और इसके विपरीत में मूल्यों की भविष्यवाणी के लिए MLE का उपयोग क्यों नहीं कर सकते हैं?
इस विषय पर किसी भी मदद की बहुत सराहना की जाएगी।
जवाबों:
मैं एक सीधा जवाब देना चाहूंगा।
अधिकतम संभावना आकलन (MLE) बनाम कम से कम वर्गों के आकलन (LSE) के बीच मुख्य अंतर क्या है?
जैसा कि @TrynnaDoStat ने टिप्पणी की, चुकता त्रुटि को कम करना इस मामले में संभावना को अधिकतम करने के बराबर है। जैसा कि विकिपीडिया में कहा गया है ,
एक रेखीय मॉडल में, यदि त्रुटियाँ एक सामान्य वितरण से संबंधित हैं, तो कम से कम वर्ग अनुमानक अधिकतम संभावना अनुमानक भी हैं।
उन्हें आपके मामले में उसी के रूप में देखा जा सकता है,
मैं इसे थोड़ा विस्तार से बताता हूं। जब से हम जानते हैं कि प्रतिक्रिया चर ( )
में एक सामान्य त्रुटि वितरण मॉडल है,
संभावना फ़ंक्शन है,
जाहिर है एल अधिकतम को न्यूनतम करने के बराबर है
यह सबसे कम वर्ग विधि है।
हम रैखिक प्रतिगमन और इसके विपरीत में मूल्यों की भविष्यवाणी के लिए MLE का उपयोग क्यों नहीं कर सकते हैं?
जैसा कि ऊपर बताया गया है कि हम वास्तव में ( मूल्यों की भविष्यवाणी के लिए MLE का उपयोग करके अधिक सटीक रूप से समकक्ष हैं) । और यदि प्रतिक्रिया चर में सामान्य वितरण के बजाय मनमाने ढंग से वितरण होते हैं, जैसे कि बर्नौली वितरण या घातीय परिवार में से कोई भी, हम एक लिंक फ़ंक्शन (प्रतिक्रिया वितरण के अनुसार) का उपयोग करके प्रतिक्रिया चर वितरण के लिए रैखिक भविष्यवक्ता का नक्शा बनाते हैं , तो संभावना फ़ंक्शन बन जाता है परिवर्तन के बाद सभी परिणामों (0 और 1 के बीच संभावनाएं) का उत्पाद। हम रैखिक समारोह में लिंक फ़ंक्शन को पहचान फ़ंक्शन के रूप में मान सकते हैं (क्योंकि प्रतिक्रिया पहले से ही एक संभावना है)।
एमएल अनुमानकर्ताओं का एक उच्च सेट है जिसमें कम से कम पूर्ण विचलन ( -Norm) और कम से कम वर्ग ( -Norm) शामिल हैं। एमएल के हुड के तहत अनुमानक (दुखद) गैर-मौजूद विराम बिंदु जैसे सामान्य गुणों की एक विस्तृत श्रृंखला साझा करते हैं। वास्तव में जब तक आप जानते हैं कि आप क्या कर रहे हैं ओएलएस सहित बहुत सी चीजों को अनुकूलित करने के विकल्प के रूप में आप एमएल दृष्टिकोण का उपयोग कर सकते हैं।
-नॉर्म सीएफ गॉस में वापस जाता है और लगभग 200 साल पुराना है, जबकि आधुनिक एमएल दृष्टिकोण वापस (IMHO) ह्यूबर 1964 में चला जाता है। कई वैज्ञानिकों का उपयोग -Norms और उनके समीकरणों के लिए किया जाता है। सिद्धांत अच्छी तरह से समझा गया है और बहुत सारे प्रकाशित पत्र हैं जिन्हें उपयोगी एक्सटेंशन के रूप में देखा जा सकता है:
व्यावसायिक अनुप्रयोग केवल डेटा फिट नहीं करते हैं, वे जाँचते हैं:
इसके अलावा परिकल्पना के लिए बड़ी संख्या में विशिष्ट सांख्यिकीय परीक्षण हैं। यह सभी एमएल अनुमानकों पर आवश्यक नहीं है या कम से कम एक प्रमाण के साथ कहा जाना चाहिए।
एक और अपवित्र बिंदु यह है कि -नॉर्म को लागू करना बहुत आसान है, इसे बायेसियन नियमितीकरण या लेवेनबर्ग-मार्क्वार्ड जैसे अन्य एल्गोरिदम तक बढ़ाया जा सकता है।
नहीं भूलना: प्रदर्शन। गॉस-मार्कोव जैसे कम से कम वर्ग मामलों में सममितीय सकारात्मक निश्चित सामान्य समीकरण उत्पन्न नहीं होते हैं । इसलिए मैं प्रत्येक लिए एक अलग पुस्तकालयों का उपयोग करता हूं। इस निश्चित मामले के लिए विशेष अनुकूलन करना संभव है।
विवरण के लिए बेझिझक पूछें।