prior पर टैग किए गए जवाब

बायेसियन आँकड़ों में एक पूर्व वितरण संभावना या वितरण के रूप में जानकारी या ज्ञान (अक्सर व्यक्तिपरक) उपलब्ध कराता है, एक नमूना देखने से पहले। बड़े प्रसार के साथ एक वितरण का उपयोग तब किया जाता है जब पैरामीटर (एस) के बारे में बहुत कम जानकारी होती है, जबकि अधिक संकीर्ण पूर्व वितरण सूचना के अधिक से अधिक डिग्री का प्रतिनिधित्व करता है।

2
लाप्लास पूर्व में विरल समाधान क्यों पैदा कर रहा है?
मैं नियमितीकरण पर साहित्य के माध्यम से देख रहा था, और अक्सर पैराग्राफ को देखता हूं जो गौसियन से पहले एल 2 विनियमन को जोड़ता है, और एल 1 शून्य पर केंद्रित लैप्लस के साथ। मुझे पता है कि ये पुजारी कैसे दिखते हैं, लेकिन मुझे समझ में नहीं आता …

3
अनुचित पूर्व उचित वितरण को कैसे बढ़ावा दे सकता है?
हम जानते हैं कि उचित पूर्व वितरण के मामले में, पी( ∣ θ X) = पी( एक्स)| Θ ) पी( Θ )पी( एक्स))पी(θ|एक्स)=पी(एक्स|θ)पी(θ)पी(एक्स)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝ पी( एक्स)| Θ ) पी( Θ )αपी(एक्स|θ)पी(θ) \propto P(X \mid \theta)P(\theta) । इस कदम का सामान्य औचित्य यह है कि …

6
पूर्व और संभावना से बहुत अलग है
यदि पूर्व और संभावना एक-दूसरे से बहुत अलग हैं, तो कभी-कभी ऐसी स्थिति होती है जहां पोस्टीरियर दोनों में से किसी के समान नहीं होता है। उदाहरण के लिए देखें यह चित्र, जो सामान्य वितरण का उपयोग करता है। यद्यपि यह गणितीय रूप से सही है, यह मेरे अंतर्ज्ञान के …

4
पैमाने के मापदंडों के लिए कमजोर सूचनात्मक पूर्व वितरण
जब मैं पैमाने के मापदंडों (सामान्य वितरण, टी वितरण आदि) के लिए पूर्व वितरण के रूप में लॉग सामान्य वितरण का उपयोग कर रहा हूं, जब मुझे इस बारे में एक मोटा विचार है कि पैमाने क्या होना चाहिए, लेकिन मैं यह नहीं जानता कि मैं क्या करना चाहता हूं …

2
एलडीए हाइपरपरमेटर्स के लिए प्राकृतिक व्याख्या
क्या कोई यह बता सकता है कि एलडीए हाइपरपरमेटर्स के लिए प्राकृतिक व्याख्या क्या है? ALPHAऔर BETAक्रमशः (प्रति दस्तावेज) विषय और (प्रति विषय) शब्द वितरण के लिए डिरिचलेट वितरण के पैरामीटर हैं। हालाँकि क्या कोई यह बता सकता है कि इन हाइपरपेरेटरों बनाम छोटे मूल्यों के बड़े मूल्यों को चुनने …

2
क्यों एक से पहले विचरण को कमजोर माना जाता है?
पृष्ठभूमि विचरण से पहले सबसे अधिक उपयोग किए जाने वाले कमजोर में से एक, पैरामीटर (जेलमैन 2006) के साथ उलटा-गामा है ।α=0.001,β=0.001α=0.001,β=0.001\alpha =0.001, \beta=0.001 हालाँकि, इस वितरण में लगभग [3 \ times10 ^ {19}, \ infty] का 90% सीआई है [3×1019,∞][3×1019,∞][3\times10^{19},\infty]। library(pscl) sapply(c(0.05, 0.95), function(x) qigamma(x, 0.001, 0.001)) [1] 3.362941e+19 …

2
लगातार आंकड़ों में निहित पुजारी क्या हैं?
मैंने इस धारणा को सुना है कि जेन्स का दावा है कि फ्रीक्वेंटर्स "निहित पूर्व" के साथ काम करते हैं। ये निहितार्थ क्या हैं? क्या इसका मतलब यह है कि लगातार मॉडलर बेयिसियन मॉडल के सभी विशेष मामले पाए जाने की प्रतीक्षा कर रहे हैं?

2
अनुभवजन्य पादरियों के साथ क्या समस्या है?
साहित्य में मैं कभी-कभी इस टिप्पणी पर अड़ जाता हूं, कि डेटा पर निर्भर होने वाले खुद को चुनने वाले पुजारी (उदाहरण के लिए ज़ेलर्स जी-पूर्व) की सैद्धांतिक दृष्टिकोण से आलोचना की जा सकती है। यदि समस्या को डेटा से स्वतंत्र नहीं चुना जाता है, तो वास्तव में समस्या कहां …

4
जब हम आम तौर पर अनइंफॉर्मेटिव या सब्जेक्टिव पादरियों का उपयोग करते हैं, तो व्याख्या में बेज़ियन फ्रेमवर्क कैसे बेहतर होता है?
यह अक्सर, तर्क दिया जाता है बायेसियन ढांचे व्याख्या में एक बड़ा लाभ यह है कि (frequentist से अधिक) है क्योंकि यह डेटा दिया एक पैरामीटर की संभावना की गणना करता है - p(θ|x)p(θ|x)p(\theta|x) के बजाय p(x|θ)p(x|θ)p(x|\theta) frequentist ढांचे में के रूप में । अब तक सब ठीक है। लेकिन, …

1
क्या एक साथ L1 और L2 नियमितीकरण (उर्फ इलास्टिक नेट) के साथ रैखिक प्रतिगमन की एक बायेसियन व्याख्या है?
यह सर्वविदित है कि दंड के साथ रैखिक प्रतिगमन सह-गुणकों पर पूर्व में गाऊसी द्वारा दिए गए एमएपी अनुमान को खोजने के बराबर है। इसी तरह, एल 1 दंड का उपयोग करना पूर्व के रूप में लाप्लास वितरण का उपयोग करने के बराबर है।l2l2l^2l1l1l^1 और एल 2 नियमितीकरण के कुछ …

2
जेफ़रीज़ प्रियर्स और एक विचरण स्थिरीकरण परिवर्तन के पीछे क्या संबंध है?
मैं wikipedia पर Jeffreys से पहले के बारे में पढ़ रहा था: Jeffreys पहले और देखा कि प्रत्येक उदाहरण के बाद, यह वर्णन करता है कि कैसे एक भिन्नता-स्थिरीकरण परिवर्तन Jeffreys को एक समान पूर्व में बदल देता है। उदाहरण के लिए, Bernoulli मामले के लिए, यह कहा गया है …


2
आवृत्तिवाद और पुजारी
इस पोस्ट के लिए एक टिप्पणी में रॉबी मैककिलियम कहते हैं : यह ध्यान दिया जाना चाहिए कि, आवृत्ति के दृष्टिकोण से, ऐसा कोई कारण नहीं है कि आप पूर्व ज्ञान को मॉडल में शामिल नहीं कर सकते हैं। इस अर्थ में, अक्सर देखने वाला दृष्टिकोण सरल होता है, आपके …

1
अनइनफॉर्मेटिव बीटा पादरियों के बीच चयन
मैं एक द्विपद प्रक्रिया (हिट / मिस) के साथ काम करने के लिए बीटा वितरण के लिए बिना सूचना के पुजारियों की तलाश कर रहा हूं। पहले मैं पर उपयोग करने के बारे में सोचा या जेफरी पहले कि एक वर्दी पीडीएफ उत्पन्न, α = 0.5 , β = 0.5 …

3
बायेसियन पैरामीटर अनुमान में पूर्व का चयन कैसे करें
मैं पैरामीटर आकलन, एमएल, एमएपी और बेयस दृष्टिकोण करने के लिए 3 तरीके जानता हूं। और एमएपी और बेयस दृष्टिकोण के लिए, हमें मापदंडों के लिए पुजारी चुनने की आवश्यकता है, है ना? मैं इस मॉडल का कहना है कि p(x|α,β)p(x|α,β)p(x|\alpha,\beta) , जिसमें α,βα,β\alpha,\beta आदेश एमएपी या Bayes का उपयोग …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.