दोनों विधियों के समर्थक और विपक्ष क्या हैं?
दोनों विधियों के समर्थक और विपक्ष क्या हैं?
जवाबों:
अधिकतम संभावना का आकलन सांख्यिकीय मॉडल में मापदंडों का आकलन करने के लिए एक सामान्य दृष्टिकोण है, जिसकी संभावना फ़ंक्शन को परिभाषितकरके अधिकतमकिया जाता है
यही है, डेटा प्राप्त करने की संभावना पैरामीटर का कुछ मूल्य दिया ability । किसी दिए गए समस्या के लिए संभावना फ़ंक्शन को जानना आप ऐसे θ के लिए देख सकते हैं जो आपके पास डेटा प्राप्त करने की संभावना को अधिकतम करता है। कभी-कभी हमारे पास अनुमानक होते हैं, उदाहरण के लिए अंकगणितीय माध्य सामान्य वितरण के लिए μ पैरामीटर के लिए एक MLE अनुमानक है , लेकिन अन्य मामलों में आप विभिन्न तरीकों का उपयोग कर सकते हैं जिनमें अनुकूलन एल्गोरिदम का उपयोग करना शामिल है। एमएल दृष्टिकोण आपको बता नहीं है कैसे के इष्टतम मूल्य खोजने के लिए θ - आप बस अनुमान लेने के लिए और तुलना करने के लिए जो अनुमान किया गया था बेहतर संभावना का उपयोग कर सकते हैं - यह सिर्फ आपको बताता है कि आप कैसे कर सकते हैं की तुलना की अगर एक मूल्य "अधिक होने की संभावना" अन्य की तुलना में है।
ग्रेडिएंट वंश एक अनुकूलन एल्गोरिथ्म है । आप इस एल्गोरिथ्म का उपयोगकई अलग-अलग कार्यों केन्यूनतम (या अधिकतम, फिर इसे ग्रेडिएंट एसेंट )कह सकते हैं। एल्गोरिथ्म वास्तव में परवाह नहीं करता है कि वह कौन सा फ़ंक्शन है जिसे वह कम करता है, यह वही करता है जो इसके लिए कहा गया था। तो अनुकूलन एल्गोरिथ्म का उपयोग करने के साथ आपको किसी तरह जानना होगा कि आप कैसे बता सकते हैं कि ब्याज के पैरामीटर का एक मूल्य दूसरे की तुलना में "बेहतर" है। आपको अपने एल्गोरिथ्म को कम से कम करने के लिए कुछ फ़ंक्शन प्रदान करना होगा और एल्गोरिथ्म इसकी न्यूनतम खोजने के साथ सौदा करेगा।
आप विभिन्न तरीकों का उपयोग करके अधिकतम अनुकूलन अनुमान प्राप्त कर सकते हैं और अनुकूलन एल्गोरिथ्म का उपयोग करना उनमें से एक है। दूसरी ओर, क्रमिक वंश का उपयोग संभावना कार्य के अलावा अन्य कार्यों को अधिकतम करने के लिए भी किया जा सकता है।
f
लेकिन लॉजिस्टिक रिग्रेशन की संभावना इस तरह से कोई क्लोज-फॉर्म समाधान नहीं है। इसलिए हमें अन्य विधि का उपयोग करना होगा, जैसे कि gradient descent
।
likelihood function
+ gradient descent
(जो संभावना फ़ंक्शन का समाधान प्राप्त करने के लिए) का उपयोग करना अभी भी MLE करने का एक तरीका है।
Unlike linear regression, we can no longer write down the MLE in closed form. Instead, we need to use an optimization algorithm to compute it. For this, we need to derive the gradient and Hessian.
मशीन लर्निंग के इस वाक्य को भी देख सकते हैं : एक संभाव्य परिप्रेक्ष्य, केविन मर्फी।