maximum-likelihood पर टैग किए गए जवाब

किसी दिए गए नमूने का अवलोकन करने की संभावना को अनुकूलित करने वाले पैरामीटर मान का चयन करके एक सांख्यिकीय मॉडल के मापदंडों का आकलन करने की एक विधि।

2
MLE को नए अवलोकन स्ट्रीम के रूप में पुन: अद्यतन करना
सामान्य प्रश्न मान लें कि हमारे पास iid डेटा x1x1x_1 , x2x2x_2 , ... स्ट्रीमिंग है। हम पुनरावर्ती रूप से के अधिकतम संभावना अनुमान की गणना करना चाहते हैं। । यही है, कंप्यूटेड होने के हम एक नया निरीक्षण x_n , और किसी भी तरह संवर्द्धित करने के लिए इच्छा …

5
क्या M-आकलनकर्ता का अनुभवजन्य हेसियन अनिश्चित हो सकता है?
क्रॉस सेक्शन और पैनल डेटा (पृष्ठ 357) के अपने इकोनोमेट्रिक एनालिसिस में जेफरी वोल्ड्रिज का कहना है कि अनुभवजन्य हेसियन "हम जिस विशेष नमूने के साथ काम कर रहे हैं, उसके लिए सकारात्मक निश्चितता, या सकारात्मक सकारात्मक भी नहीं है।" यह मेरे लिए गलत लगता है (संख्यात्मक समस्याओं के अलावा) …

6
क्या हम कभी भी अधिकतम संभावना अनुमान का उपयोग करते हैं?
मैं सोच रहा हूं कि क्या आंकड़ों में कभी अधिकतम संभावना अनुमान का इस्तेमाल किया गया है। हम इसकी अवधारणा को सीखते हैं लेकिन मुझे आश्चर्य होता है कि यह वास्तव में कब उपयोग किया जाता है। यदि हम डेटा के वितरण को मान लेते हैं, तो हम दो मापदंडों …

2
किस मॉडल के लिए MLE का पूर्वाग्रह तेजी से विचरण से गिरता है?
θ^\hat\thetaθ∗\theta^*nn ‖ θ - θ * ‖∥θ^−θ∗∥\lVert\hat\theta-\theta^*\rVert आम तौर पर कम हो जाती है के रूप में हे ( 1 / √n )O(1/n−−√)O(1/\sqrt n)। त्रिकोण असमानता और उम्मीद के गुणों का उपयोग करना, यह है कि इस त्रुटि दर है कि दोनों "पूर्वाग्रह" का तात्पर्य दिखाया जा सकता है‖ई θ …

1
पूर्ण स्तंभ रैंक से कम के साथ अधिकतम संभावना सीमित है
यह प्रश्न रैखिक मॉडल के किसी विशेष संस्करण में प्रतिबंधित अधिकतम संभावना (REML) अनुमान से संबंधित है: Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), जहां X(α)X(α)X(\alpha) एक ( n×pn×pn \times p ) मैट्रिक्स द्वारा parametrized α∈Rkα∈Rk\alpha \in \mathbb R^k , के रूप में है Σ(α)Σ(α)\Sigma(\alpha) । ββ\beta …

1
हमें विभिन्न अनुमानों में विभिन्न अनुमानकों के अभिसरण व्यवहार पर चर्चा क्यों करनी चाहिए?
पुस्तक के पहले अध्याय में बीजगणितीय ज्यामिति और सांख्यिकीय शिक्षण सिद्धांत जो विभिन्न कार्यात्मक स्थान में अनुमानों के अभिसरण के बारे में बात करता है, इसमें उल्लेख किया गया है कि बायेसियन अनुमान श्वार्ट्ज वितरण टोपोलॉजी से मेल खाता है, जबकि अधिकतम गति का अनुमान सुपर-मानक टोपोलॉजी से मेल खाता …

1
कैरट glmnet बनाम cv.glmnet
वहाँ का उपयोग कर की तुलना में भ्रम का एक बहुत हो रहा है glmnetके भीतर caretएक इष्टतम लैम्ब्डा के लिए खोज करने के लिए और का उपयोग कर cv.glmnetएक ही काम करने के लिए। कई सवाल किए गए, उदाहरण के लिए: वर्गीकरण मॉडल train.glmnet बनाम cv.glmnet? कैरट के साथ …

6
MLE बनाम MAP का आकलन, कब किसका उपयोग करना है?
MLE = अधिकतम संभावना अनुमान एमएपी = अधिकतम एक बादरी MLE सहज / भोली है जिसमें यह केवल पैरामीटर (यानी संभावना फ़ंक्शन) दिए गए अवलोकन की संभावना के साथ शुरू होता है और अवलोकन के साथ पैरामीटर को सर्वश्रेष्ठ उच्चारण खोजने की कोशिश करता है । लेकिन यह पूर्व ज्ञान …

1
क्या लॉजिस्टिक रिग्रेशन अधिकतम होने की संभावना को भी रेखीय मॉडल से अधिक करता है?
बाइनरी परिणामों के साथ एक डेटा सेट को देखते हुए और कुछ भविष्यवाणिय मैट्रिक्स , मानक लॉजिस्टिक प्रतिगमन मॉडल गुणांक के बीटा +1 {MLE } जो द्विपद संभावना को अधिकतम करता है। जब एक्स पूर्ण रैंक है \ बीटा_ {एमएलई} अद्वितीय है; जब पूर्ण पृथक्करण मौजूद नहीं है, तो यह …

1
MLE को समझ में क्यों आता है, किसी व्यक्ति के नमूने की संभावना 0 है?
यह कुछ अजीब तरह का विचार है जो मैंने कुछ पुराने आँकड़ों की समीक्षा के दौरान किया था और किसी कारण से मैं उत्तर के बारे में सोच नहीं पा रहा था। एक सतत पीडीएफ हमें किसी भी सीमा में मानों के अवलोकन का घनत्व बताता है। उदाहरण के लिए …

1
क्या अब भी लगातार सशर्त आक्रमण का प्रयोग किया जा रहा है?
मैंने हाल ही में नैन्सी रीड, बैरंडॉफ़-नील्सन, रिचर्ड कॉक्स और कुछ पुराने पत्रों की समीक्षा की है, हाँ, अक्सर प्रतिमान में "सशर्त आक्षेप" की अवधारणा पर थोड़ा रोनाल्ड फिशर, जो कि प्रतीत होता है कि संदर्भ केवल विचार पर आधारित हैं नमूना स्थान का "प्रासंगिक सबसेट", संपूर्ण नमूना स्थान नहीं। …

1
क्या ANOVA क्षणों की विधि पर निर्भर है और अधिकतम संभावना पर नहीं?
मैंने विभिन्न स्थानों पर उल्लेख किया है कि ANOVA क्षणों की पद्धति का उपयोग करके अपना अनुमान लगाता है। मैं उस दावे से उलझन में हूं क्योंकि, भले ही मैं क्षणों की विधि से परिचित नहीं हूं, मेरी समझ यह है कि यह अधिकतम संभावना की विधि के बराबर और …

3
रैखिक प्रतिगमन: ओएलएस और एमएलई की पहचान देने वाला कोई भी गैर-सामान्य वितरण?
यह प्रश्न यहाँ टिप्पणियों में लंबी चर्चा से प्रेरित है: रैखिक प्रतिगमन सामान्य वितरण का उपयोग कैसे करता है? सामान्य रेखीय प्रतिगमन मॉडल में, सादगी के लिए यहां केवल एक भविष्यवक्ता के साथ लिखा गया है: जहां ज्ञात स्थिरांक हैं और शून्य-मतलब स्वतंत्र त्रुटि शब्द हैं। यदि हम इसके अलावा …

3
कौन सी बेहतर अधिकतम संभावना और सीमांत संभावना है और क्यों?
प्रतिगमन करते समय यदि हम परिभाषा से जाते हैं: आंशिक संभावना, प्रोफाइल संभावना और सीमांत संभावना के बीच क्या अंतर है? वह, अधिकतम संभावना का पता लगाएं β और β जो अधिकतम L (θ, Lik | डेटा) को बढ़ाता है। जबकि, सीमांत संभावना हम इस तथ्य का दोहन करके संभावना …

1
कॉची वितरण में स्थान पैरामीटर का MLE
केंद्रित करने के बाद, दो माप x और ingx को संभावित घनत्व समारोह के साथ कॉची वितरण से स्वतंत्र अवलोकन माना जा सकता है: f(x:θ)=f(x:θ)=f(x :\theta) = 1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ यह दिखाएं कि यदि का MLE of the 0 है, लेकिन यदि में दो MLE …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.