पक्षपाती अधिकतम संभावना अनुमानक के पीछे सहज तर्क


25

मुझे पक्षपाती अधिकतम संभावना (एमएल) के अनुमानकों पर भ्रम है । पूरी अवधारणा का गणित मेरे लिए बहुत स्पष्ट है, लेकिन मैं इसके पीछे सहज तर्क का पता नहीं लगा सकता।

एक निश्चित डेटासेट को देखते हुए, जिसमें एक वितरण से नमूने होते हैं, जो स्वयं एक पैरामीटर का एक फ़ंक्शन है जिसे हम अनुमान करना चाहते हैं, एमएल अनुमानक उस पैरामीटर के लिए मूल्य में परिणाम करता है जो कि डेटासेट का उत्पादन करने की सबसे अधिक संभावना है।

मैं सहज रूप से एक पक्षपाती एमएल अनुमानक को इस अर्थ में नहीं समझ सकता कि: पैरामीटर के लिए सबसे अधिक संभावित मूल्य एक गलत मान के लिए पूर्वाग्रह के साथ पैरामीटर के वास्तविक मूल्य की भविष्यवाणी कैसे कर सकता है?



मुझे लगता है कि पूर्वाग्रह पर ध्यान केंद्रित इस प्रश्न को प्रस्तावित डुप्लिकेट से अलग कर सकता है, हालांकि वे निश्चित रूप से बहुत निकट से संबंधित हैं।
सिल्वर फिश

जवाबों:


14

एमएल अनुमानक उस पैरामीटर के लिए मूल्य में परिणाम करता है जो कि डेटासेट में सबसे अधिक होने की संभावना है।

मान्यताओं को देखते हुए, एमएल अनुमानक उस पैरामीटर का मान है जो डेटा सेट के उत्पादन का सबसे अच्छा मौका है।

मैं सहज रूप से एक पक्षपाती एमएल अनुमानक को इस अर्थ में नहीं समझ सकता कि "पैरामीटर के लिए सबसे अधिक संभावित मूल्य एक गलत मान के प्रति पूर्वाग्रह के साथ पैरामीटर के वास्तविक मूल्य की भविष्यवाणी कैसे कर सकता है?"

बायस नमूना वितरण की अपेक्षाओं के बारे में है। "डेटा के उत्पादन की सबसे अधिक संभावना है" नमूना वितरण की अपेक्षाओं के बारे में नहीं है। उनसे एक साथ जाने की उम्मीद क्यों की जाएगी?

आधार क्या है जिस पर यह आश्चर्य की बात है कि वे जरूरी अनुरूप नहीं हैं?

मेरा सुझाव है कि आप MLE और पॉंडर के कुछ सरल मामलों पर विचार करें कि उन विशेष मामलों में अंतर कैसे उत्पन्न होता है।

एक उदाहरण के रूप में, पर एक समान रूप से टिप्पणियों पर विचार करें । सबसे बड़ा अवलोकन है (जरूरी) पैरामीटर से बड़ा नहीं है, इसलिए पैरामीटर केवल सबसे बड़े अवलोकन के रूप में कम से कम बड़े मान ले सकता है।(0,θ)

जब आप के लिए संभावना पर विचार , यह (जाहिर है) बड़ा करीब है θ सबसे बड़ा अवलोकन किया जा सके। तो यह अधिकतम है पर सबसे बड़ा अवलोकन; कि स्पष्ट रूप से के लिए अनुमान है θ कि नमूना मिला प्राप्त करने की संभावना को अधिकतम:θθθ

यहाँ छवि विवरण दर्ज करें

θθ

U(0,θ)nn+1θθ^=n+1nX(n)X(n)

यह MLE के दाईं ओर स्थित है, और इसलिए इसकी संभावना कम है।


आपके उत्तर के लिए धन्यवाद। पहले भाग के बारे में, मैंने खुद को गलत तरीके से व्यक्त किया। मूल रूप से आपका मतलब था कि आपने क्या कहा। दूसरे भाग के आपके उत्तर के आधार पर, क्या मैं यह निष्कर्ष निकाल सकता हूं कि समान वितरण से निकाले गए डेटा का एक और सेट दिया जाता है, क्या एमएल अनुमानक एक अलग पूर्वाग्रह में परिणाम देगा? चूंकि आप कहते हैं कि एमएल अनुमानक वह है जो "सबसे अधिक संभावना है" डेटा का उत्पादन करता है। यदि हम डेटा को बदलते हैं तो कुछ अन्य अनुमानक इसका सबसे अधिक उत्पादन कर सकते हैं। क्या वो सही है?
एसएसए

यदि जनसंख्या वितरण का रूप नहीं बदलता है तो अनुमानक नहीं बदलेगा। कुछ अन्य अनुमान एक अलग नमूने के साथ उत्पादित किए जाएंगे और जिस राशि से यह पक्षपाती है वह आम तौर पर अलग होगा - पूर्वाग्रह आमतौर पर नमूना आकार से संबंधित होता है, भले ही जनसंख्या समान हो। ... (ctd)
Glen_b -Reinstate मोनिका

(Ctd) ... mnθ

निष्पक्ष और विधायकों के बीच अंतर देखने के लिए विहित उदाहरण का अच्छा उपयोग।
jwg

6

βMLEβββMLE

NN1


पहले भाग में गलती के लिए क्षमा करें। मैंने इसे संपादित और तय किया। लेकिन आपने MLE के बारे में जो कहा है, उसके बारे में गैर-विषम मामले में पहले स्थान पर पक्षपात क्यों किया जाएगा?
एसएसए

2
"बेहतर" इस ​​बात पर निर्भर करता है कि आप क्या देखते हैं; बेसेल का सुधार इसे निष्पक्ष बनाता है, लेकिन निष्पक्षता स्वयं "बेहतर" नहीं है (एमएसई बदतर है, उदाहरण के लिए, मुझे छोटे एमएसई के लिए निष्पक्षता क्यों पसंद करनी चाहिए?)। निष्पक्षता के लिए बेहतर हो सकता है तर्क दिया, ceteris paribus , लेकिन दुर्भाग्य से ceteris paribus नहीं होगा ।
Glen_b -Reinstate मोनिका

मेरी समझ यह थी कि निष्पक्ष अनुमानक को MLE और क्रैमर-राव लोअर बाउंड के बीच संबंधों के माध्यम से सर्वश्रेष्ठ निष्पक्ष दिखाया जा सकता है।
दिमित्री वी। मास्टरोव

@ मुझे बताया गया है कि ऐसा इसलिए है क्योंकि हम फॉर्मूला में सही माध्य के बजाय नमूना माध्य का उपयोग कर रहे हैं। ईमानदार होने के लिए, मैंने वास्तव में इस स्पष्टीकरण को विशेष रूप से सहज नहीं पाया है, क्योंकि यदि माले का अनुमानकर्ता निष्पक्ष है, तो यह गलत क्यों होना चाहिए? मैं आमतौर पर एक सिमुलेशन के साथ आराम करने के लिए अपनी शंकाएं रखता हूं।
दिमित्री वी। मास्टरोव

5

यहाँ मेरा अंतर्ज्ञान है।

पूर्वाग्रह का एक उपाय है सटीकता , लेकिन वहाँ भी की एक धारणा है परिशुद्धता

यहाँ छवि विवरण दर्ज करें

एक आदर्श दुनिया में, हम अनुमान प्राप्त करेंगे, जो सटीक और सटीक दोनों है, यानी बैल की आंख को हमेशा हिट करता है। दुर्भाग्य से, हमारी अपूर्ण दुनिया में, हमें सटीकता और सटीकता को संतुलित करना होगा। कभी-कभी हम महसूस कर सकते हैं कि हम अधिक सटीकता हासिल करने के लिए थोड़ी सटीकता दे सकते हैं: हम हर समय व्यापार बंद करते हैं। इसलिए, यह तथ्य कि एक अनुमानक पक्षपाती है इसका मतलब यह नहीं है कि यह बुरा है: यह हो सकता है कि यह अधिक सटीक हो।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.