मार्कोव चेन और मार्कोव चेन मोंटे कार्लो के बीच क्या संबंध है


15

मैं एसएएस का उपयोग करके मार्कोव श्रृंखलाओं को समझने की कोशिश कर रहा हूं। मैं समझता हूं कि एक मार्कोव प्रक्रिया वह है जहां भविष्य की स्थिति केवल वर्तमान स्थिति पर निर्भर करती है, न कि पिछली स्थिति पर और एक संक्रमण मैट्रिक्स है जो एक राज्य से दूसरे राज्य में संक्रमण संभावना को पकड़ती है।

लेकिन फिर मैं इस पद पर आया: मार्कोव चेन मोंटे कार्लो। क्या मैं जानना चाहता हूं कि क्या मार्कोव चेन मोंटे कार्लो वैसे भी मार्कोव प्रक्रिया से संबंधित है जो मैं ऊपर वर्णित करता हूं?

जवाबों:


9

खैर, हां, दोनों के बीच एक संबंध है क्योंकि MCMC से ड्रॉ एक मार्कोव श्रृंखला बनाते हैं। गेलमैन, बायेसियन डेटा विश्लेषण से (तीसरा संस्करण), पी। 265:

मार्कोव श्रृंखला सिमुलेशन (भी बुलाया मार्कोव श्रृंखला मोंटे कार्लो या एमसीएमसी) एक सामान्य विधि के मूल्यों ड्राइंग के आधार पर है उचित वितरण से और फिर सही करने के लिए उन बेहतर लक्ष्य पिछला वितरण, अनुमान लगाने के लिए ड्रॉ पी ( θ | y ) । नमूने को क्रमिक रूप से किया जाता है, अंतिम खींचे गए मूल्य के आधार पर नमूना ड्रॉ के वितरण के साथ; इसलिए, ड्रॉ एक मार्कोव श्रृंखला बनाते हैं।θp(θ|y)


उम्म ठीक है, लेकिन मुझे यादृच्छिक नमूनों को बनाने के लिए एक मार्कोव प्रक्रिया की आवश्यकता क्यों है, सामान्य, बर्नौली, ऑक्यूपियन आदि जैसी कई अन्य प्रक्रियाएं हैं
विक्टर

2
@ विक्टर मुझे लगता है कि आपने MCMC के उपयोग के मामले में अपनी दृष्टि खो दी है । जब हम पोस्टीरियर डिस्ट्रीब्यूशन का कोई विश्लेषणात्मक रूप नहीं लेते हैं, तो हम बायसीयन आंकड़ों में MCMC का उपयोग करते हैं।
साइकोरैक्स का कहना है कि मोनिका

3
+1 बायेसियन आँकड़े संभवतः MCMC का सबसे स्पष्ट अनुप्रयोग है (जहां लक्ष्य वितरण एक संयुक्त पोस्टीरियर है) लेकिन एकमात्र संभव नहीं है।
Glen_b -Reinstate Monica

18

दोनों अवधारणाओं के बीच संबंध है कि मार्कोव श्रृंखला मोंटे कार्लो (उर्फ एमसीएमसी) तरीके मार्कोव श्रृंखला सिद्धांत पर भरोसा करते हैं एक जटिल लक्ष्य वितरण से सिमुलेशन और मोंटे कार्लो अनुमानों का उत्पादन करने के π

X1,,XNXi{Xi1,,X1}Xi1

Xi=f(Xi1,ϵi)
fπϵiXiπi

MCMC एल्गोरिथ्म का सबसे आसान उदाहरण स्लाइस नमूना है : इस एल्गोरिथ्म के पुनरावृत्ति i पर, करते हैं

  1. ϵi1U(0,1)
  2. XiU({x;π(x)ϵi1π(Xi1)}) (which amounts to generating a second independent ϵi2)

For instance, if the target distribution is a normal N(0,1) [for which you obviously would not need MCMC in practice, this is a toy example!] the above translates as

  1. simulate ϵi1U(0,1)
  2. simulate XiU({x;x22log(2πϵi1}), i.e., Xi=±ϵi2{2log(2πϵi1)φ(Xi1)}1/2 with ϵi2U(0,1)

or in R

T=1e4
x=y=runif(T) #random initial value
for (t in 2:T){
  epsilon=runif(2)#uniform white noise 
  y[t]=epsilon[1]*dnorm(x[t-1])#vertical move       
  x[t]=sample(c(-1,1),1)*epsilon[2]*sqrt(-2*#Markov move from
        log(sqrt(2*pi)*y[t]))}#x[t-1] to x[t]

Here is a representation of the output, showing the right fit to the N(0,1) target and the evolution of the Markov chain (Xi). top: Histogram of 10⁴ iterations of the slice sampler and normal N(0,1) fit; bottom: sequence $(X_i)$

And here is a zoom on the evolution of the Markov chain (Xi,ϵi1π(Xi)) over the last 100 iterations, obtained by

curve(dnorm,-3,3,lwd=2,col="sienna",ylab="")
for (t in (T-100):T){
lines(rep(x[t-1],2),c(y[t-1],y[t]),col="steelblue");
lines(x[(t-1):t],rep(y[t],2),col="steelblue")}

that follows vertical and horizontal moves of the Markov chain under the target density curve.100 last moves of the slice sampler

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.