कागज से अपेक्षा अधिकतमकरण में मदद: पूर्व वितरण को कैसे शामिल किया जाए?


9

प्रश्न शीर्षक वाले कागज़ पर आधारित है: युग्मित विकिरण परिवहन-प्रसार मॉडल का उपयोग करते हुए फैलाना ऑप्टिकल टोमोग्राफी में छवि पुनर्निर्माण

डाउनलोड लिंक

लेखक ईएम एल्गोरिथ्म के साथ लागू होते हैं l1 अज्ञात वेक्टर का नियमितीकरण μएक छवि के पिक्सेल का अनुमान लगाने के लिए। द्वारा दिया गया मॉडल है

(1)y=Aμ+e
अनुमान Eq (8) में दिया गया है

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

मेरे मामले में, मैंने विचार किया है μ लंबाई का एक फिल्टर होना L तथा μ कर रहे हैं L×1फिल्टर का प्रतिनिधित्व करने वाले वैक्टर। इसलिए,

मॉडल के रूप में फिर से लिखा जा सकता है

(3)y(n)=μTa(n)+v(n)

प्रश्न: समस्या निर्माण: μ(n) (n 1 से) बिना इनपुट वाला इनपुट है और {e(n)} अज्ञात विचरण के साथ शून्य का मतलब है σe2योजक शोर। MLE समाधान उम्मीद अधिकतमकरण (EM) पर आधारित होगा।

कागज में Eq (19) है A फ़ंक्शन - पूर्ण लॉग-लाइबिलिटी लेकिन मेरे मामले के लिए मुझे समझ में नहीं आता है कि मैं कैसे वितरण को शामिल कर सकता हूं A,μ पूर्ण लॉग-इन संभावना की अभिव्यक्ति में।

की EM का उपयोग करके पूर्ण लॉग-आउट की संभावना क्या होगी y पूर्व वितरण सहित?


क्या आप वास्तव में लॉग-लाइक चाहते हैं या आप इसके बजाय लॉग-पोस्टियर चाहते हैं? केवल पहले वाले में लाप्लासियन शामिल होगा। पूर्व को केवल संभावना के लॉग को प्राप्त करके प्राप्त किया जा सकता है, जो ऐसा लगता है कि आपने पहले ही लिख दिया है

दो भाव हैं जो मुझे चाहिए - (1) एक जो फिशर सूचना मैट्रिक्स को खोजने के लिए उपयोग किया जाएगा और (2) अन्य संपूर्ण डेटा सेट की पीडीएफ होगी जिसमें छिपे हुए चर शामिल हैं Z और अवलोकन जो पैरामीटर के एक समारोह के रूप में मनाया डेटा की संयुक्त संभावना घनत्व है θ। मैंने जो pdf लिखी है, वह अंदाजा लगाने के लिए MA मॉडल पर लागू हैθ। लेकिन, यह पूर्ववर्ती बाधा = लाप्लासियन के लिए अलग कैसे होगा ताकि लॉग-संभावना के आंशिक डेरिवेटिव से फिशर सूचना मैट्रिक्स पाया जा सके।
एसकेएम

@ शीआन: मुझे समझ नहीं आ रहा है कि 3-पीडीएफ़ में कैसे प्लग-इन किया जाए जिसमें लॉग-लाइक के फॉर्मूलेशन में पूर्व शामिल है। मैं अधिकतम व्युत्पन्न करने के लिए काम कर सकता हूं जो आंशिक व्युत्पन्न है और शून्य के बराबर है। क्या आप स्पष्ट रूप से लिखी गई संभावना की अभिव्यक्ति के साथ उत्तर दे सकते हैं। यह वास्तव में मदद करेगा
SKM

जवाबों:


3

यदि हम लक्ष्य के रूप में विचार करते हैं

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
ईएम के आधार पर प्रतिनिधित्व लिए एक मनमाना , क्योंकि अपघटन या जो मनमाने मूल्य के लिए काम करता है (क्योंकि lhs पर कोई नहीं है) ) और इसलिए : में किसी भी अपेक्षा के लिए काम करता है उदाहरण के लिए दिए गए किसी भी सशर्त वितरण के लिए
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
ZX=xq(z|x,θ) । इसलिए अगर हम को समाधान साथ करते हैं, तो हमारे पास # जबकि EM के मानक तर्कों द्वारा by । इसलिए, और एक E कदम के रूप में लक्ष्य θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logL(θ|x,Z)|x,θ]+logπ(θ)
प्रत्येक एम कदम पर पीछे की ओर बढ़ने की ओर जाता है, जिसका अर्थ है कि संशोधित ईएम एल्गोरिदम एक स्थानीय एमएपी में परिवर्तित होता है।

आपके जवाब के लिए धन्यवाद। क्या के pdf का प्रतिनिधित्व करता है ? क्या आप इस बात की कृपा कर सकते हैं कि दूसरी पंक्ति में उल्लिखित समीकरण में साथ 2 अपेक्षाएँ क्यों हैं ? q()ZE[logq(.)]
SKM

मैंने कुछ स्पष्टीकरण जोड़े, लेकिन आपको मानक सामग्री के बाद से ईएम एल्गोरिथ्म की व्युत्पत्ति एक पाठ्यपुस्तक में जांचनी चाहिए।
शीआन

1

मुझे नहीं लगता कि मोनोटोनिक बढ़ती लॉग-पोस्टियर (या MLE के लिए लॉग संभावना) MAP अनुमान (या MLE) के स्थिर बिंदु में अभिसरण दिखाने के लिए पर्याप्त है। उदाहरण के लिए, वेतन वृद्धि मनमाने ढंग से छोटी हो सकती है। वू 1983 के प्रसिद्ध पत्र में , ईएम के स्थिर बिंदु में परिवर्तित होने के लिए एक पर्याप्त शर्त निम्न बाध्य फ़ंक्शन के दोनों तर्कों में भिन्नता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.