आपकी समस्या के बारे में बायेसियन दृष्टिकोण मॉडल पर डेटा बिंदु दिए गए पूर्ववर्ती संभावना पर विचार करना होगा ,M∈{Normal,Log-normal}X={x1,...,xN}
P(M∣X)∝P(X∣M)P(M).
कठिन हिस्सा सीमांत संभावना हो रही है ,
P(X∣M)=∫P(X∣θ,M)P(θ∣M)dθ.
के कुछ विकल्पों के लिए , गाऊसी की सीमांत संभावना को बंद रूप में प्राप्त किया जा सकता है । चूंकि यह कहना कि लॉग-सामान्य रूप से वितरित है, यह कहते हुए समान है कि } सामान्य रूप से वितरित किया जाता है, आपको लॉग-सामान्य के लिए समान सीमांत संभावना का उपयोग करने में सक्षम होना चाहिए गॉसियन मॉडल के लिए मॉडल, बजाय लागू करके । केवल परिवर्तन के याकूब को ध्यान में रखना याद रखें ,p(θ∣M)XY={logx1,...,logxNYX
P(X∣M=Log-Normal)=P(Y∣M=Normal)⋅∏i∣∣∣1xi∣∣∣.
इस दृष्टिकोण के लिए आपको पैरामीटर पर वितरण चुनने की आवश्यकता है - यहाँ, संभवतः - और पूर्व की संभावनाएँ ।P(θ∣M)P(σ2,μ∣M=Normal)P(M)
उदाहरण:
के लिए मैं एक का चयन सामान्य उलटा-गामा वितरण के साथ मानकों ।P(μ,σ2∣M=Normal)m0=0,v0=20,a0=1,b0=100
के अनुसार मर्फी (2007) (समीकरण 203), सामान्य वितरण के सीमांत संभावना तो द्वारा दिया जाता है
P(X∣M=Normal)=|vN|12|v0|12ba00baNnΓ(aN)Γ(a0)1πN/22N
जहाँ और पीछे के पैरामीटर हैं (समीकरण 196 से 200),aN,bN,vNP(μ,σ2∣X,M=Normal)
vNmNaNbN=1/(v−10+N),=(v−10m0+∑ixi)/vN,=a0+N2,=b0+12(v−10m20−v−1Nm2N+∑ix2i).
मैं लॉग-सामान्य वितरण के लिए एक ही हाइपरपैरामीटर का उपयोग करता हूं,
P(X∣M=Log-normal)=P({logx1,...,logxN}∣M=Normal)⋅∏i∣∣∣1xi∣∣∣.
की लॉग-सामान्य की पूर्व संभावना के लिए , , और निम्न लॉग-सामान्य वितरण से तैयार डेटापी ( एम = लॉग-सामान्य ) = 0.10.1P(M=Log-normal)=0.1
इस तरह से व्यवहार करता है:
ठोस रेखा डेटा बिंदुओं के अलग-अलग ड्रॉ के लिए औसत दर्जे की संभावना दिखाती है । ध्यान दें कि बहुत कम डेटा के लिए, विश्वास पूर्व मान्यताओं के करीब हैं। लगभग 250 डेटा बिंदुओं के लिए, एल्गोरिथ्म लगभग हमेशा निश्चित होता है कि डेटा लॉग-सामान्य वितरण से खींचा गया था।N
समीकरणों को लागू करते समय, घनत्व के बजाय लॉग-डेंसिटी के साथ काम करना एक अच्छा विचार होगा। लेकिन अन्यथा यह बहुत सीधे आगे होना चाहिए। यहाँ वह कोड है जो मैंने प्लॉट जेनरेट करने के लिए इस्तेमाल किया था:
https://gist.github.com/lucastheis/6094631