expectation-maximization पर टैग किए गए जवाब

एक अनुकूलन एल्गोरिथ्म अक्सर लापता डेटा की उपस्थिति में अधिकतम-संभावना अनुमान के लिए उपयोग किया जाता है।

4
EM एल्गोरिथ्म के लिए तेजी से विकल्प
अव्यक्त चर (विशेष रूप से pLSA) के साथ मॉडल सीखने के लिए EM एल्गोरिथ्म के लिए कोई त्वरित विकल्प हैं? मैं गति के पक्ष में सटीक बलिदान के साथ ठीक हूं।

3
पुनरावलोकन टिप्पणियों की संख्या द्वारा नमूना की जा रही जनसंख्या के आकार का अनुमान लगाएं
कहो कि मेरे पास 50 मिलियन अद्वितीय चीजें हैं, और मैं 10 मिलियन नमूने लेता हूं (प्रतिस्थापन के साथ) ... मैंने जो पहला ग्राफ संलग्न किया है वह दिखाता है कि मैं कितनी बार उसी "नमूना" का नमूना लेता हूं, जो अपेक्षाकृत दुर्लभ है जनसंख्या मेरे नमूने से बड़ी है। …

4
नमूने से दो आबादी को अलग करना
मैं एक ही डेटा सेट से मूल्यों के दो समूहों को अलग करने की कोशिश कर रहा हूं। मैं मान सकता हूं कि आबादी में से एक सामान्य रूप से वितरित की गई है और नमूने का कम से कम आधा आकार है। दूसरे वाले का मान पहले वाले (वितरण …

2
क्या MLE का हमेशा मतलब है कि हम अपने डेटा के अंतर्निहित पीडीएफ को जानते हैं, और क्या EM का अर्थ है कि हम नहीं?
मेरे कुछ सरल वैचारिक प्रश्न हैं, जिन्हें मैं MLE (अधिकतम संभावना अनुमान) के बारे में स्पष्ट करना चाहूंगा, और ईएम (एक्सपेक्टेशन मैक्सिमाइजेशन) से इसका क्या लिंक है, यदि कोई है। जैसा कि मैं इसे समझता हूं, अगर कोई कहता है कि "हमने MLE का उपयोग किया है", क्या इसका मतलब …

2
विल्क्स की प्रमेय के साथ एक सीमित मिश्रण में गौसियों की संख्या ज्ञात करना?
मान लें कि मेरे पास स्वतंत्र, समान रूप से वितरित अविभाज्य टिप्पणियों और दो परिकल्पनाओं का एक सेट है कि कैसे उत्पन्न किया गया था:एक्सएक्सxएक्सएक्सx एच0एच0H_0 : अज्ञात माध्य और विचरण के साथ एक एकल गाऊसी वितरण से लिया गया है।एक्सएक्सx एचएएचएH_A : दो मिश्रण से अज्ञात माध्य, विचरण और …

2
एक छिपे हुए मार्कोव मॉडल में प्रारंभिक संक्रमण संभाव्यता का महत्व
एक छिपे हुए मार्कोव मॉडल में संक्रमण की संभावनाओं को कुछ प्रारंभिक मूल्य देने के क्या लाभ हैं? आखिरकार सिस्टम उन्हें सीखेगा, इसलिए यादृच्छिक लोगों के अलावा अन्य मूल्यों को देने का क्या मतलब है? क्या अंतर्निहित एल्गोरिथ्म बॉम-वेल्च जैसे अंतर बनाता है? यदि मुझे शुरुआत में संक्रमण की संभावनाएँ …

1
शून्य फुले हुए पॉइसन मॉडल के एक अव्यक्त चर सूत्रीकरण के लिए MLE की गणना करने के लिए आप EM एल्गोरिथ्म का उपयोग कैसे करते हैं?
शून्य फुलाया प्वासों प्रतिगमन मॉडल एक नमूने के लिए परिभाषित किया गया है द्वारा Y मैं = { 0 संभावना के साथ पी मैं + ( 1 - पी मैं ) ई - λ मैं कश्मीर के साथ संभाव्यता ( 1 - पी मैं ) e - λ i λ …

3
छिपे हुए मार्कोव मॉडल और अपेक्षा अधिकतमकरण एल्गोरिथ्म
क्या कोई स्पष्ट कर सकता है कि मार्कोव मॉडल कितने छिपे हुए हैं जो अपेक्षा अधिकतम करने से संबंधित हैं? मैं कई लिंक से गुज़रा हूँ, लेकिन एक स्पष्ट दृष्टिकोण के साथ नहीं आ सका। धन्यवाद!

1
कैसे एक मैट्रिक्स सकारात्मक निश्चित करने के लिए?
मैं निम्नलिखित कारक विश्लेषण मॉडल के लिए एक EM एल्गोरिथ्म को लागू करने की कोशिश कर रहा हूं; डब्ल्यूजे= μ + बी एजे+ ईजेके लियेj = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n जहां पी आयामी यादृच्छिक वेक्टर है, एक जे अव्यक्त चर का एक क्ष आयामी …

3
एचएमएम फिटिंग पर एमएलई और बॉम वेल्च के बीच अंतर
में इस लोकप्रिय प्रश्न , उच्च upvoted जवाब MLE और बौम वेल्च HMM बैठाने के लिए अलग बनाता है। प्रशिक्षण समस्या के लिए हम निम्नलिखित 3 एल्गोरिदम का उपयोग कर सकते हैं: MLE (अधिकतम संभावना अनुमान), Viterbi प्रशिक्षण (Viterbi डिकोडिंग के साथ भ्रमित न करें), बॉम वेल्श = आगे-पिछड़े एल्गोरिथ्म …

2
कागज से अपेक्षा अधिकतमकरण में मदद: पूर्व वितरण को कैसे शामिल किया जाए?
प्रश्न शीर्षक वाले कागज़ पर आधारित है: युग्मित विकिरण परिवहन-प्रसार मॉडल का उपयोग करते हुए फैलाना ऑप्टिकल टोमोग्राफी में छवि पुनर्निर्माण डाउनलोड लिंक लेखक ईएम एल्गोरिथ्म के साथ लागू होते हैं एल1l1l_1 अज्ञात वेक्टर का नियमितीकरण μμ\muएक छवि के पिक्सेल का अनुमान लगाने के लिए। द्वारा दिया गया मॉडल है …

1
MCMC / EM सीमाएँ? EM पर MCMC?
मैं वर्तमान में R से JAGS का उपयोग करके पदानुक्रमित बायेसियन मॉडल सीख रहा हूं, और पायथन ( "हैकर्स के लिए बायेसियन मेथड्स" ) का उपयोग करके भी pymc । मैं इस पोस्ट से कुछ अंतर्ज्ञान प्राप्त कर सकता हूं : "आप संख्याओं के ढेर के साथ समाप्त हो जाएंगे …

1
क्या EM एल्गोरिथ्म गाऊसी मिश्रण मॉडल में लगातार मापदंडों का अनुमान लगाता है?
मैं गाऊसी मिक्सचर मॉडल का अध्ययन कर रहा हूं और खुद इस सवाल के साथ आता हूं। मान लीजिए कि अंतर्निहित डेटा के मिश्रण से उत्पन्न होता है KKK गाऊसी वितरण और उनमें से प्रत्येक का एक मतलब वेक्टर है μk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p, कहाँ पे 1≤k≤K1≤k≤K1\leq k\leq K और उनमें से प्रत्येक …

1
बीवरिएट मिश्रण वितरण के साथ ईएम एल्गोरिदम से रूपांतरण
मेरे पास एक मिश्रण मॉडल है जिसे मैं डेटा के एक सेट के अधिकतम संभावना अनुमानक को ढूंढना चाहता हूं xxxऔर आंशिक रूप से देखे गए डेटा का एक सेट । मैंने दोनों ई-स्टेप को लागू किया है ( दिए गए और करंट पैरामीटर्स की उम्मीद की गणना ), और …

1
EM एल्गोरिदम को पुनरावृत्त होना क्यों पड़ता है?
मान लीजिए कि आपके पास आबादी है एनएनN इकाइयों, एक यादृच्छिक चर के साथ प्रत्येक एक्समैं∼ पॉइसन ( λ )एक्समैं~प्वासों(λ)X_i \sim \text{Poisson}(\lambda)। आप किसी भी इकाई के लिए मानों का निरीक्षण करते हैं जिसके लिए । हम का एक अनुमान चाहते हैं ।एन = एन-n0n=एन-n0n = N-n_0एक्समैं> 0एक्समैं>0X_i > 0λλ\lambda …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.