अधिकतम एक पश्चगामी अनुमान का उदाहरण


11

मैं अधिकतम संभावना अनुमान और अधिकतम पोस्टीरियर आकलन के बारे में पढ़ रहा हूं और अब तक मैं केवल अधिकतम संभावना अनुमान के साथ ठोस उदाहरण मिला हूं। मुझे अधिकतम पश्चवर्ती अनुमान के कुछ सार उदाहरण मिले हैं, लेकिन इस पर संख्याओं के साथ अभी तक कुछ भी ठोस नहीं है: एस

यह बहुत भारी हो सकता है, केवल अमूर्त चर और कार्यों के साथ काम कर रहा है, और इस अमूर्तता में डूबने के लिए नहीं, समय-समय पर वास्तविक दुनिया से चीजों को संबंधित करना अच्छा है। लेकिन निश्चित रूप से, यह सिर्फ मेरा (और कुछ अन्य लोगों का) अवलोकन है :)

इसलिए, क्या कोई मुझे इस पर संख्याओं के साथ अधिकतम ए पोस्टवर्दी अनुमान का एक सरल, लेकिन ठोस उदाहरण दे सकता है? इससे बहुत मदद मिलेगी :)

धन्यवाद!

मैंने मूल रूप से MSE पर यह प्रश्न पोस्ट किया है, लेकिन वहां कोई उत्तर नहीं मिल सका:

/math/449386/example-of-maximum-a-posteriori-estimation

मैंने क्रॉस पोस्टिंग पर यहां दिए गए निर्देशों का पालन किया है:

http://meta.math.stackexchange.com/questions/5028/how-do-i-move-a-post-to-another-forum-like-cv-stats

जवाबों:


6

पहला उदाहरण

एक विशिष्ट मामला प्राकृतिक भाषा प्रसंस्करण के संदर्भ में टैगिंग है। विस्तृत विवरण के लिए यहां देखें । विचार मूल रूप से एक वाक्य में किसी शब्द की शाब्दिक श्रेणी निर्धारित करने में सक्षम होने के लिए है (क्या यह संज्ञा, विशेषण, ...) है। मूल विचार यह है कि आपके पास अपनी भाषा का एक मॉडल है जिसमें एक छिपे हुए मार्कोव मॉडल ( एचएमएम ) है। इस मॉडल में, छिपे हुए राज्य शाब्दिक श्रेणियों के अनुरूप हैं, और अवलोकन किए गए शब्द वास्तविक शब्दों में बताए गए हैं।

संबंधित चित्रमय मॉडल का रूप है,

एक विहित एचएमएम का चित्रमय मॉडल

जहां वाक्य में शब्दों का अनुक्रम है, और एक्स = ( एक्स 1 , , x एन ) टैग का अनुक्रम है।y=(y1,...,yN)x=(x1,...,xN)

एक बार प्रशिक्षित होने के बाद, लक्ष्य लेक्सिकल श्रेणियों के सही अनुक्रम का पता लगाना है जो किसी दिए गए इनपुट वाक्य के अनुरूप हैं। यह उन टैगों के अनुक्रम को खोजने के रूप में तैयार किया गया है जो भाषा के मॉडल द्वारा उत्पन्न किए गए सबसे अधिक संगत / सबसे अधिक संभावना है

f(y)=argmaxxYp(x)p(y|x)

2 उदाहरण

वास्तव में, एक बेहतर उदाहरण प्रतिगमन होगा। न केवल इसलिए कि यह समझना आसान है, बल्कि इसलिए भी कि अधिकतम संभावना (एमएल) और अधिकतम पोस्टीरियर (एमएपी) के बीच अंतर स्पष्ट हो जाता है।

t

y(x;w)=iwiϕi(x)
ϕ(x)w

t=y(x;w)+ϵ

p(t|w)=N(t|y(x;w))

E(w)=12n(tnwTϕ(xn))2

जो अच्छी तरह से ज्ञात कम से कम वर्ग त्रुटि समाधान देता है। अब, एमएल शोर के प्रति संवेदनशील है, और कुछ परिस्थितियों में स्थिर नहीं है। एमएपी आपको वज़न पर अड़चनें डालकर बेहतर समाधान निकालने की अनुमति देता है। उदाहरण के लिए, एक विशिष्ट मामला रिज रिग्रेशन है, जहाँ आप वज़न कम करने की माँग करते हैं, जहाँ तक संभव हो छोटा है

E(w)=12n(tnwTϕ(xn))2+λkwk2

N(w|0,λ1I)

w=argminwp(w;λ)p(t|w;ϕ)

ध्यान दें कि एमएपी में भार एमएल के रूप में पैरामीटर नहीं हैं, लेकिन यादृच्छिक चर हैं। फिर भी, एमएल और एमएपी दोनों बिंदु आकलनकर्ता हैं (वे इष्टतम वजन के वितरण के बजाय वजन का एक इष्टतम सेट लौटाते हैं)।


+1 हाय @ जम्पा आपके उत्तर के लिए धन्यवाद :) लेकिन मैं अभी भी अधिक ठोस उदाहरण की तलाश में हूँ :)
jjepsuomi

w

1
O(n3)

f(y)=argmaxxXp(x)p(y|x)
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.