पूर्व और संभावना से बहुत अलग है


21

यदि पूर्व और संभावना एक-दूसरे से बहुत अलग हैं, तो कभी-कभी ऐसी स्थिति होती है जहां पोस्टीरियर दोनों में से किसी के समान नहीं होता है। उदाहरण के लिए देखें यह चित्र, जो सामान्य वितरण का उपयोग करता है।

पीछे वाला व्यवहार

यद्यपि यह गणितीय रूप से सही है, यह मेरे अंतर्ज्ञान के साथ नहीं लगता है - यदि डेटा मेरे दृढ़ता से आयोजित विश्वासों या डेटा के साथ मेल नहीं खाता है, तो मुझे उम्मीद है कि न तो रेंज अच्छी तरह से किराया करेगी और या तो एक फ्लैट पोस्टीरियर से अधिक की उम्मीद करेगी। पूरी रेंज या शायद पूर्व और संभावना के आसपास एक द्विध्रुवीय वितरण (मुझे यकीन नहीं है जो अधिक तार्किक समझ में आता है)। मैं निश्चित रूप से एक ऐसी सीमा के आसपास तंग की उम्मीद नहीं करूंगा जो न तो मेरे पूर्व विश्वासों या डेटा से मेल खाता है। मैं समझता हूं कि जैसे-जैसे अधिक डेटा एकत्र किया जाएगा, पीछे की संभावना की ओर बढ़ेगा, लेकिन इस स्थिति में यह काउंटर-सहज ज्ञान युक्त लगता है।

मेरा प्रश्न है: इस स्थिति के बारे में मेरी समझ कैसे त्रुटिपूर्ण है (या यह त्रुटिपूर्ण है)। इस स्थिति के लिए `सही 'कार्य है। और यदि नहीं, तो इसे और कैसे मॉडल बनाया जा सकता है?

पूर्णता के लिए, पूर्व को रूप में दिया जाता है और संभावना के रूप में ।एन ( μ = 6.1 , σ = 0.4 )N(μ=1.5,σ=0.4)N(μ=6.1,σ=0.4)

संपादित करें: दिए गए कुछ उत्तरों को देखते हुए, मुझे लगता है कि मैंने स्थिति को बहुत अच्छी तरह से नहीं समझाया है। मेरा कहना था कि बायेसियन विश्लेषण मॉडल में मान्यताओं को देखते हुए एक गैर-सहज परिणाम पैदा करता है। मेरी उम्मीद थी कि शायद किसी भी तरह के खराब मॉडलिंग फैसलों के लिए बाद में किसी तरह से 'खाता' होगा, जिसके बारे में सोचा जाना निश्चित रूप से मामला नहीं है। मैं अपने उत्तर में इस पर विस्तार करूँगा।


2
इसका मतलब यह होगा कि आप पश्च की सामान्यता को नहीं मान सकते। यदि आप मानते हैं कि पश्चगामी सामान्य है, तो यह वास्तव में सही होगा।
पास्कलवूटेन

मैं किसी भी धारणा को पीछे नहीं हटाता था, केवल पूर्व और संभावना। और किसी भी मामले में, वितरण का रूप यहां अप्रासंगिक लगता है - मैं उन्हें मैन्युअल रूप से तैयार कर सकता था और उसी के बाद का पालन करेगा।
रॉनन डेली

मैं सिर्फ इतना कह रहा हूं कि अगर आप यह नहीं मानते हैं कि आप इस पोस्टीरियर पर अपना विश्वास खत्म कर देंगे, तो यह सामान्य हो सकता है। एक सामान्य पूर्व और सामान्य डेटा को ध्यान में रखते हुए, एक सामान्य पोस्टीरियर वास्तव में ऐसा होगा। शायद छोटे आंकड़ों की कल्पना करें, ऐसा कुछ वास्तव में वास्तव में हो सकता है।
पास्कलवीकूटेन

1
क्या यह आंकड़ा सही है? ऐसा लगता है कि संभावना का पूर्व 0 के बहुत करीब होना चाहिए क्योंकि वे कभी भी ओवरलैप नहीं होते हैं। मुझे यह देखने में परेशानी हो रही है कि कैसे आपका पीछे का हिस्सा वहां जा सकता है क्योंकि पहले का वजन वहां 0 के करीब है। क्या मैं कुछ भूल रहा हूँ? ×
लुका

1
@ लुका आप पुनः सामान्यीकरण के बारे में भूल रहे हैं। पूर्व और संभावना का उत्पाद शून्य के करीब है, हाँ - लेकिन जब आप इसे फिर से सामान्य करते हैं तो यह फिर से 1 पर एकीकृत होता है, यह अप्रासंगिक हो जाता है।
पाट

जवाबों:


5

हाँ यह स्थिति पैदा हो सकती है और आपके मॉडलिंग की धारणाओं की एक विशेषता है जो विशेष रूप से पूर्व और नमूना मॉडल (संभावना) में सामान्यता है। यदि इसके बजाय आपने अपने पूर्व के लिए काऊची वितरण को चुना है, तो पीछे का भाग बहुत अलग दिखाई देगा।

prior = function(x) dcauchy(x, 1.5, 0.4)
like = function(x) dnorm(x,6.1,.4)

# Posterior
propto = function(x) prior(x)*like(x)
d = integrate(propto, -Inf, Inf)
post = function(x) propto(x)/d$value

# Plot
par(mar=c(0,0,0,0)+.1, lwd=2)
curve(like, 0, 8, col="red", axes=F, frame=T)
curve(prior, add=TRUE, col="blue")
curve(post, add=TRUE, col="seagreen")
legend("bottomleft", c("Prior","Likelihood","Posterior"), col=c("blue","red","seagreen"), lty=1, bg="white")

कैची पूर्व, सामान्य नमूना मॉडल


आपके उत्तर के लिए धन्यवाद @jaradniemi, क्या आपको लगता है कि एक कॉची से पहले हमेशा प्रश्न में दी गई विशेष स्थिति से बचना होगा?
रॉनियन डेली

1
हाँ। आम तौर पर भारी पूंछ वाले पादरी डेटा को अधिक आसानी से पूर्व में डूबने की अनुमति देते हैं।
जरदनीमी

2
jaradniemi, ऐसा हो सकता है, लेकिन अगर आप कहते हैं कि आप अपने पूर्ववर्ती को प्रभावित नहीं करना चाहते हैं, तो आप पहले स्थान पर एक सूचनात्मक क्यों चुनते हैं? ऐसा लगता है जैसे आप एक कॉची चुनने का सुझाव दे रहे हैं क्योंकि यह जानकारीपूर्ण लगता है, लेकिन यह वास्तव में नहीं है।
फ्लोरियन हार्टिग

1
यदि पूर्व और संभावना सहमत हैं, तो आपको पूर्व से पूर्व तक की सटीकता में वांछित वृद्धि मिलती है और इस प्रकार पूर्व जानकारीपूर्ण होता है। लेकिन एक भारी-पूंछ वाले को चुनने से पहले दो असहमति होने पर आसानी से पूर्व को अभिभूत करने की संभावना होती है।
जारदनिमी

2

मैं अब तक दिए गए उत्तरों से कुछ हद तक असहमत हूं - इस स्थिति के बारे में कुछ भी अजीब नहीं है। संभावना वैसे भी विषम रूप से सामान्य है, और एक सामान्य पूर्व बिल्कुल भी असामान्य नहीं है। यदि आप दोनों को एक साथ रखते हैं, तो इस तथ्य के साथ कि पूर्व और संभावना एक ही उत्तर नहीं देते हैं, हमारे पास वह स्थिति है जिसके बारे में हम यहां बात कर रहे हैं। मैंने यह दर्शाया है कि नीचे कोड के साथ jaradniemi है।

हम 1 में उल्लेख करते हैं कि इस तरह के अवलोकन का सामान्य निष्कर्ष यह होगा कि या तो a) मॉडल संरचनात्मक रूप से गलत है b) डेटा गलत है c) पूर्व गलत है। लेकिन यह सुनिश्चित करने के लिए कुछ गलत है, और आप यह भी देखेंगे कि क्या आप कुछ पश्च-भविष्यवाचक जांच करेंगे, जो आपको वैसे भी करना चाहिए।

1 हार्टिग, एफ।; डाइक, जे।; हिटलर, टी।; हिगिंस, एसआई; ओ'हारा, आरबी; Scheiter, S. & Huth, A. (2012) गतिशील वनस्पति मॉडल को डेटा से जोड़ना - एक व्युत्क्रम परिप्रेक्ष्य। जे। बायोगेगर, 39, 2240-2252। http://onlinelibrary.wiley.com/doi/10.1111/j.1365-2699.2012.02745.x/abstract

prior = function(x) dnorm(x,1,.3)
like = function(x) dnorm(x,-1,.3)

# Posterior
propto = function(x) prior(x)*like(x)
d = integrate(propto, -Inf, Inf)
post = function(x) propto(x)/d$value

# Plot
par(mar=c(0,0,0,0)+.1, lwd=2)
curve(like, -2, 2, col="red", axes=F, frame=T, ylim = c(0,2))
curve(prior, add=TRUE, col="blue")
curve(post, add=TRUE, col="seagreen")
legend("bottomleft", c("Prior","Likelihood","Posterior"), col=c("blue","red","seagreen"), lty=1, bg="white")

यहाँ छवि विवरण दर्ज करें


2

मैं उत्तर की तरह लगता है कि मैं के लिए जब यह इस सवाल के लिए आया था देख रहा था सबसे अच्छा में LESAFFRE और लॉसन द्वारा संक्षेप है बायेसियन जैव सांख्यिकी

पीछे परिशुद्धता पहले और नमूना सटीक, यानी का योग है:

1σ2=w0+w1
μσ

यह मेरे लिए संक्षेप में प्रस्तुत करता है, और अन्य उत्तरों में मोटे तौर पर उल्लिखित है, यह है कि सामान्य पुजारियों को सामान्य संभावना के साथ मॉडलिंग करने का मामला उस स्थिति में हो सकता है जहां पोस्टीरियर दोनों की तुलना में अधिक सटीक है। यह उल्टा है, लेकिन इन तत्वों के इस तरह से मॉडलिंग करने का एक विशेष परिणाम है।


यह फिशर मैट्रिक्स के साथ उच्च आयाम में सामान्यीकृत करता है। इसके शिखर के पास पश्च वितरण की लॉग संभावना का हेसियन पूर्व और संभावना उलटा सहसंयोजक का योग है। इस राशि का व्युत्क्रम पश्च का कोविरेंस है। क्योंकि दो धनात्मक (अर्ध) निश्चित मैट्रिक्स (व्युत्क्रम सहसंयोजक) जोड़े जाते हैं, यह गणितीय रूप से गारंटी है कि पश्च की शुद्धता पूर्व या संभावित संभावना वितरण से अधिक होगी। बायेसियन ढांचे में यह एक सार्वभौमिक परिणाम है।
T3am5hark

2

एक्स1एक्स0μ~एन(1.6,0.42)एक्स1~एन(μ,0.42)एक्स1एक्स10.42+0.42=0.562φ(-(6.1-1.6)/0.56)=9.310-16μ

एक्स0~एन(μ,0.42)एक्स0X0X1|X1X0|>6.11.6

X0X1


1

कुछ समय के लिए इस बारे में सोचने के बाद, मेरा निष्कर्ष यह है कि खराब मॉडलिंग मान्यताओं के साथ, पीछे का परिणाम एक परिणाम हो सकता है जो न तो पूर्व मान्यताओं या संभावना के साथ होता है। इस से प्राकृतिक परिणाम पीछे है नहीं , सामान्य रूप में, विश्लेषण के अंत। यदि यह मामला है कि पोस्टीरियर डेटा को मोटे तौर पर फिट करना चाहिए या यह पूर्व और संभावना के बीच फैलाना चाहिए (इस मामले में), तो इस तथ्य के बाद जांच की जानी चाहिए, शायद एक पश्च-भविष्यवाचक जांच के साथ या कुछ और समान। मॉडल में इसे शामिल करने के लिए संभाव्य बयानों पर संभाव्यताएं डालने की क्षमता की आवश्यकता होगी, जो मुझे नहीं लगता कि संभव है।


हां, मैं सहमत हूं, मेरा और अधिक विस्तृत जवाब देखें
फ्लोरियन हार्टिग

0

मुझे लगता है कि यह वास्तव में एक दिलचस्प सवाल है। उस पर सोते हुए, मुझे लगता है कि मेरे पास एक जवाब में एक छुरा है। प्रमुख मुद्दा इस प्रकार है:

  • आप एक संभावना पीडीएफ के रूप में इलाज किया है। लेकिन यह एक संभावना वितरण नहीं है - यह एक संभावना है! क्या अधिक है, आपने अपनी धुरी को स्पष्ट रूप से लेबल नहीं किया है। इन चीजों ने संयुक्त रूप से सब कुछ उलझा दिया है जो निम्नानुसार है।

μσP(μ|μ',σ')μ'σ'पी(एक्स|μ,σ)एक्सपी(μ|एक्स,σ,μ',σ')μ

μपी(एक्स|μ)

पी(μ|μ',σ')=एक्सपी(-(μ-μ')22σ'2)12πσ'2

पी(एक्स|μ,σ)=Πमैं=1एनएक्सपी(-(एक्समैं-μ)22σ2)12πσ2

σ'2=σ2/एनσ2एनएक्स

तो, पूर्व और संभावना समान रूप से जानकारीपूर्ण हैं। पोस्टीरियर बिमोडल क्यों नहीं है? यह आपकी मॉडलिंग मान्यताओं के कारण है। जिस तरह से इसे स्थापित किया गया है (सामान्य पूर्व, सामान्य संभावना), और जो एक उत्तर देने के लिए पीछे की ओर कसना विवश करता है, आपने एक सामान्य वितरण माना है। यह सिर्फ सामान्य वितरण की एक संपत्ति है, कि आप उन्हें उपयोग करके समस्या में पके हुए हैं। एक अलग मॉडल जरूरी नहीं है कि यह किया जाएगा। मुझे एक एहसास है (हालांकि अभी एक प्रमाण की कमी है) कि एक कॉची वितरण में बहुपद संभावना हो सकती है, और इसलिए एक बहुपद पोस्टीरियर है।

इसलिए, हमें एकतरफा होना चाहिए, और पूर्व की संभावना के रूप में जानकारीपूर्ण है। इन बाधाओं के तहत, सबसे समझदार अनुमान संभावना और पूर्व के बीच सीधे एक बिंदु की तरह लगने लगा है, क्योंकि हमारे पास यह बताने का कोई उचित तरीका नहीं है कि हम किस पर विश्वास करें। लेकिन पोस्टीरियर क्यों तंग करता है?

σμσσσμ

(यह कल्पना करने का एक तरीका यह हो सकता है कि दो भिन्न बिंदुओं का उपयोग करके ज्ञात प्रसरण के साथ गॉसियन के माध्य का अनुमान लगाया जा सके। यदि दो नमूना बिंदुओं को गॉसियन की चौड़ाई से बहुत अधिक अलग किया जाता है (अर्थात वे बाहर हैं) पूंछों में), तो यह पुख्ता सबूत है कि वास्तव में उनके बीच का मतलब निहित है। इस स्थिति से बस थोड़ा सा मतलब स्थानांतरित करने से एक नमूने या किसी अन्य की संभावना में एक घातीय ड्रॉप बंद हो जाएगा।)

सारांश में, आपने जो स्थिति बताई है वह थोड़ी अजीब है, और आपने जिस मॉडल को इस्तेमाल किया है, उस समस्या का उपयोग करके आपने कुछ अनुमानों (जैसे असमानता) को शामिल किया है, जिसका आपको एहसास नहीं था। लेकिन अन्यथा, निष्कर्ष सही है।


μσσμ
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.