लॉजिस्टिक रिग्रेशन के लिए अधिकतम संभावना आकलनकर्ताओं का पूर्वाग्रह


10

मैं लॉजिस्टिक रिग्रेशन के लिए अधिकतम संभावना अनुमानक (MLE) पर तथ्य की एक जोड़ी को समझना चाहूंगा।

  1. क्या यह सच है कि, सामान्य रूप से, लॉजिस्टिक रिग्रेशन के लिए MLE पक्षपाती है? मैं हाँ कहूँगा"। मुझे पता है, उदाहरण के लिए, नमूना आयाम MLEs के स्पर्शोन्मुख पूर्वाग्रह से संबंधित है।

    क्या आप इस घटना के किसी भी प्राथमिक उदाहरण को जानते हैं?

  2. यदि MLE पक्षपाती है, तो क्या यह सही है कि MLE का सहसंयोजक मैट्रिक्स अधिकतम संभावना फ़ंक्शन के हेसियन का विलोम है?

    संपादित करें : मैं इस सूत्र से बहुत बार और बिना किसी प्रमाण के मिला हूं; यह मेरे लिए काफी मनमाना विकल्प है।

जवाबों:


15

बाइनरी निर्भर चर के साथ सरल बाइनरी लॉजिस्टिक रिग्रेशन मॉडल पर विचार करें और केवल एक स्थिर और एक बाइनरी रेजिस्टर टी

पीआर(Yमैं=1|टीमैं=1)=Λ(α+βटीमैं)
जहाँ लॉजिस्टिक cdf है, ।ΛΛ(यू)=[1+exp{-यू}]-1

लॉजिट फॉर्म में हमारे पास

ln(पीआर(Yमैं=1|टीमैं=1)1-पीआर(Yमैं=1|टीमैं=1))=α+βटीमैं

आपके पास आकार का एक नमूना है । निरूपित टिप्पणियों जहां की संख्या और उन जहां , और । निम्नलिखित अनुमानित सशर्त संभावनाओं पर विचार करें:nn1टीमैं=1n0टीमैं=0n1+n0=n

पीआर^(Y=1|टी=1)पी^1|1=1n1Σटीमैं=1yमैं

पीआर^(Y=1|टी=0)पी^1|0=1n0Σटीमैं=0yमैं

फिर यह बहुत ही बुनियादी मॉडल एमएल अनुमानक के लिए बंद फार्म समाधान प्रदान करता है:

α^=ln(पी^1|01-पी^1|0),β^=ln(पी^1|11-पी^1|1)-ln(पी^1|01-पी^1|0)

पूर्वाग्रह

यद्यपि और , समान संभावनाओं के निष्पक्ष अनुमानक हैं, MLE पक्षपाती हैं, क्योंकि गैर-रेखीय लघुगणक कार्य रास्ते में हो जाता है -imagine और अधिक जटिल मॉडल का क्या होता है , गैर-रैखिकता की एक उच्च डिग्री के साथ।पी^1|1पी^1|0

लेकिन asymptotically, पूर्वाग्रह गायब हो जाता है क्योंकि संभाव्यता अनुमान संगत हैं। अपेक्षित मान और लघुगणक के अंदर सीधे ऑपरेटर को सम्मिलित करते हुए , हमारे पास लिम

लिमn[α^]=[ln(लिमnपी^1|01-पी^1|0)]=[ln(पी1|01-पी1|0)]=α

और इसी तरह । β

VLEIANCE-COVARIANCE MATRIX OF MLE
उपर्युक्त साधारण मामले में, जो अनुमानक के लिए बंद-स्वरूप अभिव्यक्तियाँ प्रदान करता है, कम से कम, सिद्धांत रूप में, उसके सटीक परिमित-नमूना वितरण को प्राप्त कर सकते हैं और फिर उसके सटीक परिमित नमूना विचरण-सहसंयोजी मैट्रिक्स की गणना कर सकते हैं। । लेकिन सामान्य तौर पर, MLE का कोई बंद फॉर्म समाधान नहीं है। फिर हम एसेप्टोटिक विचरण-सहसंयोजक मैट्रिक्स के एक सुसंगत अनुमान का सहारा लेते हैं , जो वास्तव में (नकारात्मक का) नमूना के लॉग-लाइबिलिटी फ़ंक्शन के हेस्सियन का उलटा है, जिसका मूल्यांकन MLE में किया गया है। और यहाँ कोई "मनमाना विकल्प" नहीं है, लेकिन यह asymptotic सिद्धांत और MLE ( और विषमता सामान्यता) के एसिम्प्टोटिक गुणों के परिणामस्वरूप होता है, जो हमें बताता है कि, के लिए , θ0=(α,β)

n(θ^θ0)dN(0,(E[H])1)

जहां हेसियन है। लगभग और (बड़े) परिमित नमूने के लिए, यह हमें ले जाता हैH

Var(θ^)1n(E[H])11n(1nH^)1=H^1
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.