bayesian पर टैग किए गए जवाब

बायेसियन इनवेंशन सांख्यिकीय अनुमानों की एक विधि है जो मॉडल मापदंडों को यादृच्छिक चर के रूप में मानने और बेयर्स प्रमेय को मानने या परिकल्पना के बारे में व्यक्तिपरक संभावना बयानों को लागू करने के लिए निर्भर करता है, जो कि प्रेक्षित डेटासेट पर सशर्त है।

2
MCMC कब आम हो गया?
क्या किसी को पता है कि एमसीएमसी किस वर्ष आम हो गई (यानी, बेयसियन इंजेक्शन के लिए एक लोकप्रिय तरीका)? समय के साथ प्रकाशित MCMC (पत्रिका) लेखों की संख्या के लिए एक लिंक विशेष रूप से उपयोगी होगा।
19 bayesian  mcmc  history 

2
यदि हम पहले से ही वितरण को कम कर देते हैं तो पिछले वितरण से नमूना लेना क्यों आवश्यक है?
मेरी समझ यह है कि पैरामीटर मानों का अनुमान लगाने के लिए बायेसियन दृष्टिकोण का उपयोग करते समय: पिछला वितरण पूर्व वितरण और संभावना वितरण का संयोजन है। हम इसे पोस्टीरियर डिस्ट्रीब्यूशन (उदाहरण के लिए एक मेट्रोपोलिस-हस्टिंग एल्गोरिथ्म का उपयोग करके मान उत्पन्न करने के लिए, और अगर वे पोस्टीरियर …

3
क्या एक पश्चगामी संभावना> 1 हो सकती है?
बेयस के सूत्र में: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} क्या पीछे की संभावना P(x|a)P(x|a)P(x|a) 1 से अधिक हो सकती है? मुझे लगता है कि यह संभव है अगर उदाहरण के लिए, यह मानते हुए कि 0&lt;P(a)&lt;10&lt;P(a)&lt;10 < P(a) < 1 , और P(a)&lt;P(x)&lt;1P(a)&lt;P(x)&lt;1P(a) < P(x) < 1 , और P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x) < …

4
लॉग-लाइक बनाम बनाम संभावना का उपयोग करने के लिए सैद्धांतिक प्रेरणा
मैं एक गहरे स्तर पर सांख्यिकी और संभाव्यता सिद्धांत में लॉग-लाइबिलिटी (और शायद अधिक सामान्यतः लॉग-प्रायिकता) की सर्वव्यापीता को समझने की कोशिश कर रहा हूं। लॉग-संभाव्यताएं सभी जगह दिखाई देती हैं: हम आमतौर पर विश्लेषण के लिए लॉग-लाइबिलिटी के साथ काम करते हैं (उदाहरण के लिए अधिकतमकरण), फिशर सूचना को …


5
क्या बायेसियन आँकड़े मेटा-विश्लेषण को अप्रचलित बनाते हैं?
मैं बस सोच रहा था कि क्या बायेसियन आँकड़े पहले अध्ययन से अंतिम तक लागू होंगे यदि यह मेटा-विश्लेषण को अप्रचलित बनाता है। उदाहरण के लिए, मान लें कि 20 अध्ययन जो विभिन्न समय बिंदुओं पर किए गए हैं। अनुमान या प्रथम अध्ययन के वितरण एक साथ किया गया था …

2
अनुभवजन्य पादरियों के साथ क्या समस्या है?
साहित्य में मैं कभी-कभी इस टिप्पणी पर अड़ जाता हूं, कि डेटा पर निर्भर होने वाले खुद को चुनने वाले पुजारी (उदाहरण के लिए ज़ेलर्स जी-पूर्व) की सैद्धांतिक दृष्टिकोण से आलोचना की जा सकती है। यदि समस्या को डेटा से स्वतंत्र नहीं चुना जाता है, तो वास्तव में समस्या कहां …

5
बायेसियन सोच के पीछे दर्शन के बारे में एक अच्छी किताब क्या है?
बेइज़ियन दर्शन के बारे में एक अच्छी किताब क्या है, वस्तुविदों के खिलाफ विषयवादियों के विपरीत, बेयसियन आंकड़ों में ज्ञान की स्थिति के रूप में संभाव्यता के दृष्टिकोण को समझाते हुए, आदि। शायद सैवेज की किताब? पहले मुझे लगा कि बर्जर (1986) काम कर सकता है, लेकिन यह वह नहीं …

3
सांख्यिकीय प्रक्रिया नियंत्रण के लिए बायेसियन आँकड़े अधिक लोकप्रिय क्यों नहीं हैं?
बार-बार होने वाली बहस के बारे में मेरी समझ यह है कि लगातार आंकड़े: (या होने का दावा) उद्देश्य है या कम से कम निष्पक्ष इसलिए विभिन्न शोधकर्ताओं, विभिन्न मान्यताओं का उपयोग करके अभी भी मात्रात्मक रूप से तुलनीय परिणाम प्राप्त कर सकते हैं जबकि बायेसियन आँकड़े "बेहतर" भविष्यवाणियां करने …

4
जब हम आम तौर पर अनइंफॉर्मेटिव या सब्जेक्टिव पादरियों का उपयोग करते हैं, तो व्याख्या में बेज़ियन फ्रेमवर्क कैसे बेहतर होता है?
यह अक्सर, तर्क दिया जाता है बायेसियन ढांचे व्याख्या में एक बड़ा लाभ यह है कि (frequentist से अधिक) है क्योंकि यह डेटा दिया एक पैरामीटर की संभावना की गणना करता है - p(θ|x)p(θ|x)p(\theta|x) के बजाय p(x|θ)p(x|θ)p(x|\theta) frequentist ढांचे में के रूप में । अब तक सब ठीक है। लेकिन, …

1
क्या एक साथ L1 और L2 नियमितीकरण (उर्फ इलास्टिक नेट) के साथ रैखिक प्रतिगमन की एक बायेसियन व्याख्या है?
यह सर्वविदित है कि दंड के साथ रैखिक प्रतिगमन सह-गुणकों पर पूर्व में गाऊसी द्वारा दिए गए एमएपी अनुमान को खोजने के बराबर है। इसी तरह, एल 1 दंड का उपयोग करना पूर्व के रूप में लाप्लास वितरण का उपयोग करने के बराबर है।l2l2l^2l1l1l^1 और एल 2 नियमितीकरण के कुछ …

2
जेफ़रीज़ प्रियर्स और एक विचरण स्थिरीकरण परिवर्तन के पीछे क्या संबंध है?
मैं wikipedia पर Jeffreys से पहले के बारे में पढ़ रहा था: Jeffreys पहले और देखा कि प्रत्येक उदाहरण के बाद, यह वर्णन करता है कि कैसे एक भिन्नता-स्थिरीकरण परिवर्तन Jeffreys को एक समान पूर्व में बदल देता है। उदाहरण के लिए, Bernoulli मामले के लिए, यह कहा गया है …

1
बहुभिन्नरूपी सामान्य पीछे
यह एक बहुत ही सरल प्रश्न है, लेकिन मैं इंटरनेट या किसी पुस्तक में कहीं भी व्युत्पत्ति नहीं पा सकता हूं। मैं यह देखना चाहता हूं कि कैसे एक बायेसियन एक बहुभिन्नरूपी सामान्य वितरण को अपडेट करता है। उदाहरण के लिए: कल्पना कीजिए P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf μ},{\bf Σ}) & …

2
क्या कोई मुझे अंग्रेजी में NUTS समझा सकता है?
एल्गोरिथ्म की मेरी समझ निम्नलिखित है: नो यू-टर्न सैंपलर (NUTS) एक हैमिल्टनियन मोंटे कार्लो मेथड है। इसका मतलब यह है कि यह एक मार्कोव चेन विधि नहीं है और इस प्रकार, यह एल्गोरिथ्म यादृच्छिक चलना भाग से बचा जाता है, जिसे अक्सर अभिसरण के रूप में अक्षम और धीमा माना …

4
जब बेयसियन तरीके आवृत्तिवादी के लिए बेहतर हैं?
मैं वास्तव में बायेसियन तकनीकों के बारे में सीखना चाहता हूं, इसलिए मैं खुद को थोड़ा सिखाने की कोशिश कर रहा हूं। हालाँकि, मुझे यह देखने में कठिन समय हो रहा है जब बेयसियन तकनीकों का उपयोग करते हुए कभी-कभी फ़्रीक्वेंटिस्ट विधियों पर लाभ मिलता है। उदाहरण के लिए: मैंने …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.