सामान्य और द्विपद मॉडल पर, हमेशा पूर्व विचरण की तुलना में कम विचरण होता है?


10

या किन शर्तों की गारंटी देता है? सामान्य तौर पर (और न केवल सामान्य और द्विपद मॉडल) मुझे लगता है कि मुख्य कारण यह दावा टूट गया है कि नमूना मॉडल और पूर्व के बीच असंगति है, लेकिन और क्या है? मैं इस विषय से शुरू कर रहा हूं, इसलिए मैं वास्तव में आसान उदाहरणों की सराहना करता हूं

जवाबों:


9

के बाद से और पिछले variances पर θ संतुष्ट (के साथ) एक्स नमूना दिखाते हुए)

वर(θ)=[वर(θ|एक्स)]+वर([θ|एक्स])
सभी मात्राओं के अस्तित्व में होने के कारण, आप पश्चगामी विचरण की अपेक्षा औसतन छोटे हो सकते हैं एक्स)। यह विशेष रूप से उस स्थिति में होता है जब पीछे का विचरण स्थिर रहता हैएक्स। लेकिन, जैसा कि अन्य उत्तर से पता चलता है, पश्चगामी विचरण के बोध हो सकते हैं, जो बड़े होते हैं, क्योंकि परिणाम केवल अपेक्षा में होता है।

एंड्रयू जेलमैन से उद्धृत करने के लिए,

हम इसे बायेसियन डेटा विश्लेषण में अध्याय 2 में मानते हैं, मुझे लगता है कि होमवर्क समस्याओं के एक जोड़े में। संक्षिप्त उत्तर यह है कि अपेक्षा के अनुसार, अधिक जानकारी प्राप्त करने के बाद, पीछे का विचरण कम हो जाता है, लेकिन, मॉडल के आधार पर, विशेष मामलों में विचरण बढ़ सकता है। सामान्य और द्विपद जैसे कुछ मॉडलों के लिए, पश्चगामी विचरण केवल घट सकता है। लेकिन टी मॉडल को स्वतंत्रता के कम डिग्री के साथ विचार करें (जिसे सामान्य अर्थ और विभिन्न संस्करण के साथ मानदंडों के मिश्रण के रूप में व्याख्या किया जा सकता है)। यदि आप एक चरम मूल्य का निरीक्षण करते हैं, तो यह सबूत है कि विचरण अधिक है, और वास्तव में आपका पश्च विचरण ऊपर जा सकता है।


@Xian, क्या आप मेरे "उत्तर" पर एक नज़र डाल सकते हैं, जो आपको विरोधाभासी लगता है? अगर गेलमैन और आप बायेसियन आंकड़ों के बारे में कुछ कहते हैं, तो मैं खुद पर भरोसा करने के लिए बहुत अधिक इच्छुक हूं ...
क्रिस्टोफ़ हेंक

1
हमारे उत्तरों के बीच कोई संघर्ष नहीं। यहां तक कि BDA में एक ऐसी कवायद है जो आपके उदाहरण से मेल खाती है, यानी, ऐसे डेटा को खोजें जो बीटा वर्जन को पूर्ववर्ती संस्करण से बड़ा बनाता है।
शीआन

एक दिलचस्प अनुवर्ती प्रश्न यह होगा: नमूना आकार में वृद्धि के रूप में विचरण को 0 में परिवर्तित करने की गारंटी देने वाली स्थितियां क्या हैं।
जूलियन

8

यह एक जवाब से अधिक @ शीआन के लिए एक प्रश्न होने जा रहा है।

मैं जवाब देने जा रहा था कि एक बाद का विचरण

वी(θ|y)=α1β1(α1+β1)2(α1+β1+1)=(α0+)(n-+β0)(α0+n+β0)2(α0+n+β0+1),
साथ में n परीक्षणों की संख्या, सफलताओं की संख्या और α0,β0 बीटा के पूर्व गुणांक, पूर्व विचरण से अधिक है
वी(θ)=α0β0(α0+β0)2(α0+β0+1)
नीचे दिए गए उदाहरण के आधार पर द्विपद मॉडल में भी संभव है, जिसमें संभावना और पूर्व की स्थिति इसके विपरीत है ताकि पोस्टीरियर "बीच में बहुत दूर" हो। यह गेलमैन द्वारा उद्धरण के विपरीत लगता है।
n <- 10         
k <- 1
alpha0 <- 100
beta0 <- 20

theta <- seq(0.01,0.99,by=0.005)
likelihood <- theta^k*(1-theta)^(n-k) 
prior <- function(theta,alpha0,beta0) return(dbeta(theta,alpha0,beta0))
posterior <- dbeta(theta,alpha0+k,beta0+n-k)

plot(theta,likelihood,type="l",ylab="density",col="lightblue",lwd=2)

likelihood_scaled <- dbeta(theta,k+1,n-k+1)
plot(theta,likelihood_scaled,type="l",ylim=c(0,max(c(likelihood_scaled,posterior,prior(theta,alpha0,beta0)))),ylab="density",col="lightblue",lwd=2)
lines(theta,prior(theta,alpha0,beta0),lty=2,col="gold",lwd=2)
lines(theta,posterior,lty=3,col="darkgreen",lwd=2)
legend("top",c("Likelihood","Prior","Posterior"),lty=c(1,2,3),lwd=2,col=c("lightblue","gold","darkgreen"))

 > (postvariance <- (alpha0+k)*(n-k+beta0)/((alpha0+n+beta0)^2*(alpha0+n+beta0+1)))
[1] 0.001323005
> (priorvariance <- (alpha0*beta0)/((alpha0+beta0)^2*(alpha0+beta0+1)))
[1] 0.001147842

इसलिए, यह उदाहरण द्विपद मॉडल में एक बड़ा पश्च विचरण का सुझाव देता है।

बेशक, यह अपेक्षित पश्चगामी विचरण नहीं है। क्या वह विसंगति कहां है?

संगत आंकड़ा है

यहाँ छवि विवरण दर्ज करें


4
एकदम सही चित्रण। और इस तथ्य के बीच कोई विसंगति नहीं है कि एहसास हुआ कि पश्चगामी विचरण पूर्व विचरण से बड़ा है और अपेक्षा कम है।
शीआन

1
मैंने इस जवाब का एक लिंक एक उत्कृष्ट उदाहरण के रूप में प्रदान किया था जो यहां भी चर्चा की जा रही थी यह परिणाम (कभी-कभी डेटा के एकत्र होने के रूप में विचरण बढ़ जाता है) में प्रवेश करना होता है।
डॉन स्लोविक
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.