इस मामले में, आप निम्नलिखित धारणा / प्रतिबंध के तहत संभावना (और परिणामस्वरूप MLE ) के एबीसी सन्निकटन पर विचार कर सकते हैं :
कल्पना। मूल नमूना आकार n ज्ञात है।
यह एक जंगली धारणा नहीं है कि गुणवत्ता, अभिसरण के संदर्भ में, लगातार मूल्यांकनकर्ताओं के नमूने के आकार पर निर्भर करता है, इसलिए कोई भी मूल नमूना आकार को जाने बिना मनमाने ढंग से अच्छे अनुमानक प्राप्त नहीं कर सकता है।
विचार का पिछला वितरण से एक नमूना उत्पन्न करने के लिए है θ और, आदेश MLE की एक सन्निकटन का उत्पादन करने में , आप के रूप में एक महत्व तकनीक नमूने का उपयोग कर सकते 1 [] या पर एक समान से पहले विचार करने के लिए θ एक उपयुक्त पर समर्थन के साथ के रूप में सेट [2] ।
मैं विधि का वर्णन करने जा रहा हूँ [२]। सबसे पहले, मुझे एबीसी नमूना का वर्णन करें।
एबीसी सैम्पलर
चलो f(⋅|θ) मॉडल है कि नमूने जहां उत्पन्न हो θ∈Θ एक पैरामीटर है (अनुमान लगाया जा करने के लिए), T एक आंकड़ा (नमूना के एक समारोह) हो सकता है और T0 मनाया आंकड़ा हो, एबीसी शब्दजाल में यह एक कहा जाता है सारांश आंकड़े , ρ एक मीट्रिक, हो π(θ) पर एक पूर्व वितरण θ और ϵ>0 एक सहिष्णुता। फिर, एबीसी-अस्वीकृति नमूना निम्नानुसार लागू किया जा सकता है।
- नमूना θ∗ से π(⋅) ।
- एक नमूना उत्पन्न x आकार के n मॉडल से f(⋅|θ∗) ।
- गणना T∗=T(x) ।
- यदि ρ(T∗,T0)<ϵ , स्वीकार θ∗ के पीछे से एक सिमुलेशन के रूप में θ ।
इस एल्गोरिथ्म का पिछला वितरण से एक अनुमानित नमूना उत्पन्न θ दिया T(x)=T0 । इसलिए, सबसे अच्छा परिदृश्य तब होता है जब आँकड़ा T पर्याप्त होता है लेकिन अन्य आँकड़ों का उपयोग किया जा सकता है। इसके बारे में अधिक विस्तृत विवरण के लिए यह पेपर देखें ।
अब, एक सामान्य ढांचे में, यदि कोई एक वर्दी का उपयोग करता है जिसमें उसके समर्थन में MLE शामिल है, तो अधिकतम एक पोस्टवर्दी (MAP) अधिकतम संभावना अनुमानक (MLE) के साथ मेल खाता है। इसलिए, यदि आप एबीसी सैम्पलर में एक उपयुक्त वर्दी से पहले विचार करते हैं, तो आप एक पश्च वितरण का अनुमानित नमूना उत्पन्न कर सकते हैं जिसका एमएपी MLE के साथ मेल खाता है। शेष चरण में इस मोड का आकलन करना शामिल है। उदाहरण के लिए, "बहुभिन्नरूपी मोड के कम्प्यूटेशनल रूप से कुशल अनुमान" में सीवी में इस समस्या पर चर्चा की गई है ।
एक खिलौना उदाहरण
चलो (x1,...,xn) एक से एक नमूना हो N(μ,1) और लगता है कि इस नमूने से केवल जानकारी उपलब्ध है x¯=1n∑nj=1xj। चलोρमें इयूक्लिडियन मीट्रिक होRऔरϵ=0.001। निम्न आर कोड दिखाता है कि कैसेn=100औरμ=0साथ एक नकली नमूना का उपयोग करके ऊपर वर्णित विधियों का उपयोग करके एक अनुमानित MLE प्राप्त करना है, आकार1000के पीछे वितरण का एक नमूना,μपरμ केलिए एक समान(−0.3,0.3), और पीछे के नमूने के मोड (MAP = MLE) के अनुमान के लिए एक कर्नेल घनत्व अनुमानक।
# rm(list=ls())
# Simulated data
set.seed(1)
x = rnorm(100)
# Observed statistic
T0 = mean(x)
# ABC Sampler using a uniform prior
N=1000
eps = 0.001
ABCsamp = rep(0,N)
i=1
while(i < N+1){
u = runif(1,-0.3,0.3)
t.samp = rnorm(100,u,1)
Ts = mean(t.samp)
if(abs(Ts-T0)<eps){
ABCsamp[i]=u
i=i+1
print(i)
}
}
# Approximation of the MLE
kd = density(ABCsamp)
kd$x[which(kd$y==max(kd$y))]
जैसा कि आप देख सकते हैं, एक छोटी सी सहिष्णुता का उपयोग करके हमें MLE का एक बहुत अच्छा अनुमान मिलता है (जो कि इस तुच्छ उदाहरण में दिए गए आंकड़े से गणना की जा सकती है कि यह पर्याप्त है)। यह ध्यान रखना महत्वपूर्ण है कि सारांश सांख्यिकीय का चुनाव महत्वपूर्ण है। क्वांटाइल्स आमतौर पर सारांश सांख्यिकीय के लिए एक अच्छा विकल्प है, लेकिन सभी विकल्प एक अच्छा सन्निकटन पैदा नहीं करते हैं। यह मामला हो सकता है कि सारांश सांख्यिकीय बहुत जानकारीपूर्ण नहीं है और फिर सन्निकटन की गुणवत्ता खराब हो सकती है, जो एबीसी समुदाय में अच्छी तरह से जाना जाता है।
अद्यतन: एक समान दृष्टिकोण हाल ही में फैन एट अल में प्रकाशित किया गया था । (2012) । कागज पर चर्चा के लिए इस प्रविष्टि को देखें ।