क्या छिपा है और क्या मनाया जाता है
छिपी हुई मार्कोव मॉडल में छिपी हुई बात वही है जो असतत मिश्रण मॉडल में छिपी हुई है, इसलिए स्पष्टता के लिए, छिपे हुए राज्य की गतिशीलता के बारे में भूल जाओ और एक उदाहरण के रूप में एक परिमित मिश्रण मॉडल के साथ रहो। इस मॉडल में 'स्थिति' उस घटक की पहचान है जो प्रत्येक अवलोकन का कारण बना। मॉडल के इस वर्ग में ऐसे कारणों को कभी नहीं देखा जाता है, इसलिए 'छिपे हुए कारण' को सांख्यिकीय रूप से इस दावे में अनुवादित किया जाता है कि देखे गए डेटा में सीमांत निर्भरताएं हैं जो स्रोत घटक के ज्ञात होने पर हटा दी जाती हैं। और स्रोत घटकों का अनुमान है कि जो भी इस सांख्यिकीय संबंध को सच बनाता है।
सिग्मॉइड मध्य इकाइयों के साथ एक फीडफॉर्वर्ड मल्टीलेयर न्यूरल नेटवर्क में छिपी हुई चीज उन इकाइयों के राज्य हैं, न कि आउटपुट जो अनुमान का लक्ष्य हैं। जब नेटवर्क का आउटपुट एक वर्गीकरण होता है, यानी, संभावित आउटपुट श्रेणियों पर एक संभाव्यता वितरण, ये छिपी हुई इकाइयां मान एक स्थान को परिभाषित करती हैं जिसके भीतर श्रेणियां अलग-अलग होती हैं। इस तरह के एक मॉडल को सीखने की चाल एक छिपी जगह (इनपुट इकाइयों से मैपिंग को समायोजित करके) बनाना है, जिसके भीतर समस्या रैखिक है। नतीजतन, सिस्टम से गैर-रैखिक निर्णय सीमाएं पूरी तरह से संभव हैं।
पीढ़ीगत बनाम भेदभावपूर्ण
मिश्रण मॉडल (और HMM) डेटा जनरेटिंग प्रक्रिया का एक मॉडल है, जिसे कभी-कभी एक संभावना या 'फॉरवर्ड मॉडल' कहा जाता है। प्रत्येक राज्य की पूर्व संभावनाओं के बारे में कुछ मान्यताओं के साथ युग्मित होने पर आप बेयस प्रमेय (जनरेटिव एप्रोच) का उपयोग करके छिपे हुए राज्य के संभावित मूल्यों पर वितरण का अनुमान लगा सकते हैं। ध्यान दें, जबकि 'पूर्व' कहा जाता है, संभावना में पूर्व और पैरामीटर दोनों को आमतौर पर डेटा से सीखा जाता है।
मिश्रण मॉडल (और HMM) के विपरीत तंत्रिका नेटवर्क सीधे आउटपुट श्रेणियों (एक भेदभावपूर्ण दृष्टिकोण) पर एक पीछे वितरण सीखता है। यह संभव है क्योंकि आउटपुट मान अनुमान के दौरान देखे गए थे। और जब से वे देखे गए थे, तब इस तरह के मिश्रण के रूप में संभावना के लिए एक पूर्व और एक विशिष्ट मॉडल से एक पीछे वितरण का निर्माण करना आवश्यक नहीं है। पोस्टीरियर को सीधे डेटा से सीखा जाता है, जो अधिक कुशल और कम मॉडल पर निर्भर है।
मिश्रण और मैच
चीजों को और अधिक भ्रमित करने के लिए, इन तरीकों को एक साथ मिलाया जा सकता है, उदाहरण के लिए जब मिश्रण मॉडल (या HMM) स्थिति कभी-कभी देखी जाती है। जब यह सच है, और कुछ अन्य परिस्थितियों में यहां प्रासंगिक नहीं है, तो अन्यथा जनरेटिव मॉडल में भेदभावपूर्ण रूप से प्रशिक्षित करना संभव है। इसी तरह एचएमएम के मिश्रण मॉडल की मैपिंग को अधिक लचीले फॉरवर्ड मॉडल, जैसे, एक न्यूरल नेटवर्क से बदलना संभव है।
प्रश्न
तो यह बिल्कुल सच नहीं है कि दोनों मॉडल छिपे हुए राज्य की भविष्यवाणी करते हैं। एचएमएम का उपयोग छिपे हुए राज्य की भविष्यवाणी करने के लिए किया जा सकता है, भले ही उस तरह का हो जो आगे मॉडल की उम्मीद कर रहा है। तंत्रिका नेटवर्क का उपयोग भविष्य में नहीं देखा गया राज्य की भविष्यवाणी करने के लिए किया जा सकता है , उदाहरण के लिए भविष्य के राज्य जिसके लिए भविष्यवक्ता उपलब्ध हैं। इस तरह की स्थिति सिद्धांत रूप में छिपी नहीं है, यह अभी तक नहीं देखी गई है।
आप एक के बजाय एक का उपयोग कब करेंगे? खैर, तंत्रिका नेटवर्क मेरे अनुभव में अजीब समय श्रृंखला मॉडल बनाते हैं। वे यह भी मानते हैं कि आपने आउटपुट देखा है। HMMs नहीं है, लेकिन वास्तव में छिपा हुआ राज्य क्या है, इसका आपको कोई नियंत्रण नहीं है। फिर भी वे उचित समय श्रृंखला मॉडल हैं।