में इस लोकप्रिय प्रश्न , उच्च upvoted जवाब MLE और बौम वेल्च HMM बैठाने के लिए अलग बनाता है।
प्रशिक्षण समस्या के लिए हम निम्नलिखित 3 एल्गोरिदम का उपयोग कर सकते हैं: MLE (अधिकतम संभावना अनुमान), Viterbi प्रशिक्षण (Viterbi डिकोडिंग के साथ भ्रमित न करें), बॉम वेल्श = आगे-पिछड़े एल्गोरिथ्म
लेकिन में विकिपीडिया , यह कहता है
बॉम-वेल्च एल्गोरिथ्म मापदंडों के अधिकतम संभावना अनुमान को खोजने के लिए अच्छी तरह से ज्ञात ईएम एल्गोरिथ्म का उपयोग करता है
तो, MLE और बॉम-वेल्च एल्गोरिथ्म के बीच क्या संबंध है?
मेरा प्रयास: बॉम-वेल्च एल्गोरिथम का उद्देश्य अधिकतम संभावना है, लेकिन यह अनुकूलन को हल करने के लिए एक विशेष एल्गोरिथ्म (ईएम) का उपयोग करता है। हम अभी भी अन्य तरीकों जैसे ढाल सभ्य का उपयोग करके संभावना को अधिकतम कर सकते हैं। यही कारण है कि उत्तर दो एल्गोरिथ्म को अलग करता है।
क्या मैं सही हूं और क्या कोई मुझे स्पष्ट करने में मदद कर सकता है?