maximum-likelihood पर टैग किए गए जवाब

किसी दिए गए नमूने का अवलोकन करने की संभावना को अनुकूलित करने वाले पैरामीटर मान का चयन करके एक सांख्यिकीय मॉडल के मापदंडों का आकलन करने की एक विधि।

6
वहाँ एक उदाहरण है जहाँ MLE मतलब का एक पक्षपाती अनुमान पैदा करता है?
क्या आप इस बात का एक MLE अनुमानक का उदाहरण प्रदान कर सकते हैं कि पक्षपाती है? मैं एक उदाहरण की तलाश नहीं कर रहा हूं जो नियमित परिस्थितियों का उल्लंघन करके सामान्य रूप से MLE अनुमानकों को तोड़ता है। सभी उदाहरण जो मैं इंटरनेट पर देख सकता हूं, वह …

1
किसी दिए गए MLE के साथ यादृच्छिक नमूनों का अनुकरण करना
यह क्रॉस वैलिडेटेड प्रश्न जो एक निश्चित राशि पर एक नमूना सशर्त का अनुकरण करने के बारे में पूछ रहा है, ने मुझे जॉर्ज कैसला द्वारा मेरे लिए निर्धारित एक समस्या की याद दिला दी । एक पैरामीट्रिक मॉडल f(x|θ)f(x|θ)f(x|\theta) , और इस मॉडल से एक iid नमूना, , MLE …

2
एक असंभव अनुमान समस्या?
सवाल एक नकारात्मक द्विपद (NB) वितरण का विचरण हमेशा अपने मतलब से अधिक होता है। जब किसी नमूने का माध्य उसके विचरण से अधिक होता है, तो अधिकतम संभावना के साथ या पल के आकलन के साथ NB के मापदंडों को फिट करने की कोशिश विफल हो जाएगी (परिमित मापदंडों …

3
आकलन कैसे करें, जब केवल सारांश आँकड़े उपलब्ध हों?
यह निम्नलिखित प्रश्न और इसके बाद की चर्चा से प्रेरित है । मान लीजिए कि नमूना देखा गया है, । लक्ष्य के लिए का अनुमान लगाना है । लेकिन मूल नमूना उपलब्ध नहीं है। इसके बजाय हमारे पास नमूना कुछ आँकड़े हैं । मान लीजिए कि निश्चित है। हम का …

1
लॉजिस्टिक रजिस्टेंस के गुण
हम कुछ लॉजिस्टिक रेजिमेंट्स के साथ काम कर रहे हैं और हमने महसूस किया है कि औसत अनुमानित संभावना हमेशा नमूने में लोगों के अनुपात के बराबर होती है; अर्थात्, सज्जित मूल्यों का औसत नमूने के औसत के बराबर है। क्या कोई मुझे कारण समझा सकता है या मुझे एक …

3
अर्ध अधिकतम संभावना अनुमान (QMLE) के पीछे विचार और अंतर्ज्ञान
प्रश्न (प्रश्न): अर्ध अधिकतम संभावना अनुमान (QMLE; जिसे छद्म अधिकतम संभावना अनुमान, PMLE भी कहा जाता है) के पीछे विचार और अंतर्ज्ञान क्या है? जब वास्तविक त्रुटि वितरण मान त्रुटि वितरण से मेल नहीं खाता है, तो अनुमानक कार्य क्या करता है? विकिपीडिया साइट QMLE के लिए ठीक (संक्षिप्त, सहज, …

2
क्यों वास्तव में मनाया फिशर जानकारी का उपयोग किया जाता है?
मानक अधिकतम संभावना सेटिंग में (iid नमूना घनत्व ) के साथ कुछ वितरण से ) और सही ढंग से फिशर मॉडल के मामले में द्वारा जानकारी दी गई हैY1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] जहां उम्मीद डेटा को उत्पन्न करने वाले वास्तविक घनत्व के संबंध में लिया जाता …

3
आर में स्केलिंग टी-वितरण: स्केलिंग पैरामीटर
मैं एक टी-वितरण के मापदंडों को कैसे फिट कर सकता हूं, अर्थात सामान्य वितरण के 'औसत' और 'मानक विचलन' के अनुरूप पैरामीटर। मुझे लगता है कि उन्हें टी-वितरण के लिए 'माध्य' और 'स्केलिंग / डिग्री ऑफ फ्रीडम' कहा जाता है? निम्न कोड में अक्सर 'अनुकूलन विफल' त्रुटियों का परिणाम होता …

2
अवशिष्ट और त्रुटि के बीच अवशिष्ट मानक त्रुटि अंतर
मैं के साथ पुन: पेश करने की कोशिश optimएक सरल रेखीय प्रतीपगमन के साथ लगे से परिणाम glmया यहाँ तक कि nlsआर कार्य करता है। पैरामीटर अनुमान समान हैं, लेकिन अवशिष्ट विचरण अनुमान और अन्य मापदंडों के मानक त्रुटियां विशेष रूप से समान नहीं हैं जब नमूना आकार कम होता …

2
अवलोकन सूचना मैट्रिक्स अपेक्षित सूचना मैट्रिक्स का एक सुसंगत अनुमानक है?
मैं यह साबित करने की कोशिश कर रहा हूं कि अवलोकन किया गया सूचना मैट्रिक्स कमजोर रूप से अधिकतम अधिकतम संभावना अनुमानक (एमएलई) पर मूल्यांकन किया गया है, यह अपेक्षित सूचना मैट्रिक्स का कमजोर संगत आकलनकर्ता है। यह एक व्यापक रूप से उद्धृत परिणाम है, लेकिन कोई भी एक संदर्भ …

3
क्या MLE को iid डेटा की आवश्यकता है? या सिर्फ स्वतंत्र पैरामीटर?
अधिकतम संभावना अनुमान (MLE) का उपयोग करते हुए मापदंडों का अनुमान लगाना, संभावना फ़ंक्शन का मूल्यांकन करना शामिल है, जो पैरामीटर स्पेस (θ) पर मान (x) के लिए नमूना वितरण की संभावना को मैप करता है (θ) एक वितरण परिवार (P (X = x) | ) right के संभावित मूल्यों …

3
एक univariate घातीय Hawkes प्रक्रिया के लिए MLE ढूँढना
एकतरफा घातीय हॉक्स प्रक्रिया एक आत्म-रोमांचक बिंदु प्रक्रिया है जिसमें एक घटना आगमन दर है: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} जहां घटना के आगमन का समय है।t1,..tnt1,..tn t_1,..t_n लॉग संभावना फ़ंक्शन है −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} जिसे पुनरावर्ती रूप से …

3
अधिकतम संभावना कब काम करती है और कब नहीं?
मैं अधिकतम संभावना पद्धति के बारे में उलझन में हूं, जैसे कि अंकगणितीय माध्य की गणना। कब और क्यों अधिकतम संभावना उदाहरण के अंकगणित की तुलना में "बेहतर" अनुमानों का उत्पादन करती है? यह कैसे सत्यापित होता है?


3
नेस्टेड var-covar मॉडल में से किसी एक को चुनने के लिए REML (ML के बजाय) का उपयोग क्यों करना पड़ता है?
रैखिक मिश्रित मॉडल के यादृच्छिक प्रभावों पर मॉडल चयन पर विभिन्न विवरण REML का उपयोग करने का निर्देश देते हैं। मैं कुछ स्तर पर REML और ML के बीच अंतर जानता हूं, लेकिन मुझे समझ नहीं आता कि REML का उपयोग क्यों किया जाना चाहिए क्योंकि ML पक्षपाती है। उदाहरण …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.