क्या आप एक GLM के MLE को खोजने के लिए IRLS विधि की सरल सहज व्याख्या दे सकते हैं?


13

पृष्ठभूमि:

मैं प्रिंसटन की GLM के लिए MLE आकलन की समीक्षा का पालन ​​करने की कोशिश कर रहा हूं ।

मैं MLE आकलन की मूल बातें समझ: likelihood, score, मनाया जाता है और उम्मीद Fisher informationऔर Fisher scoringतकनीक। और मुझे पता है कि MLE आकलन के साथ सरल रेखीय प्रतिगमन को कैसे उचित ठहराया जाए ।


प्रश्न:

मैं इस विधि की पहली पंक्ति को भी नहीं समझ सकता :(

पीछे अंतर्ज्ञान क्या है zमैं के रूप में परिभाषित काम कर चर:

zमैं=η^मैं+(yमैं-μ^मैं)ηमैंμमैं

क्यों वे के बजाय इस्तेमाल कर रहे हैं yमैं अनुमान लगाने के लिए β ?

और उनका संबंध किससेresponse/link function the और μ के बीच संबंध हैημ

अगर किसी के पास एक सरल स्पष्टीकरण है या मुझे इस बारे में अधिक बुनियादी स्तर के पाठ के लिए निर्देशित कर सकता हूं तो मैं आभारी रहूंगा।


1
एक साइड नोट के रूप में, मेरे लिए मैंने पूरे "जीएलएम" ढांचे के बारे में सुनने से पहले मजबूत (एम-) अनुमान के संदर्भ में आईआरएलएस के बारे में सीखा (जिसे मैं अभी भी पूरी तरह से समझ नहीं पाया हूं )। इस दृष्टिकोण पर एक व्यावहारिक दृष्टिकोण के लिए, कम से कम वर्गों के एक साधारण सामान्यीकरण के रूप में, मैं उस स्रोत की सिफारिश करूंगा जिसका मैंने पहली बार सामना किया था: रिचर्ड सेज़िस्की के कंप्यूटर विज़न के परिशिष्ट बी (मुफ्त ई-) पुस्तक (पहले 4 पृष्ठ, वास्तव में, हालांकि ये लिंक कुछ अच्छे उदाहरण भी)।
GeoMatt22

जवाबों:


15

कुछ साल पहले मैंने अपने छात्रों के लिए (स्पेनिश में) इस बारे में एक पेपर लिखा था, इसलिए मैं यहाँ उन स्पष्टीकरणों को फिर से लिखने की कोशिश कर सकता हूँ। मैं बढ़ती जटिलता के उदाहरणों की एक श्रृंखला के माध्यम से IRLS (पुनरावृत्त कम से कम वर्ग) को देखूंगा। पहले उदाहरण के लिए हमें एक स्थान-स्तरीय परिवार की अवधारणा की आवश्यकता है। बता दें कि किसी अर्थ में शून्य पर केंद्रित घनत्व फ़ंक्शन है। हम परिभाषित करते हुए घनत्व के एक परिवार का निर्माण कर सकते ( एक्स ) = ( एक्स , μ , σ ) = 10 जहांσ>0एक स्केल पैरामीटर है औरμएक लोकेशन पैरामीटर है। माप त्रुटि मॉडल में, जहां सामान्य रूप से त्रुटि शब्द को सामान्य वितरण के रूप में मॉडलिंग की जाती है, हम उस सामान्य वितरण के स्थान पर ऊपर निर्मित एक स्थान-स्तरीय परिवार का उपयोग कर सकते हैं। जब0मानक सामान्य बंटन है, निर्माण ऊपर देताएन(μ,σ)परिवार।

(एक्स)=(एक्स;μ,σ)=1σ0(एक्स-μσ)
σ>0μ0एन(μ,σ)

अब हम कुछ सरल उदाहरणों पर IRLS का उपयोग करेंगे। सबसे पहले हम मॉडल Y 1 , Y 2 , , Y n में ML (अधिकतम संभावना) अनुमानक पाएंगे घनत्व f ( y ) = 1 के साथ iid

Y1,Y2,...,Ynआईआईडी
कॉची वितरण स्थान परिवार μ (तो यह एक स्थान परिवार है)। लेकिन पहले कुछ संकेतन। भारित की कम से कम वर्गों आकलनकर्ता μ द्वारा दिया जाता है μ * = Σ n मैं = 1 डब्ल्यू मैं y मैं
(y)=1π11+(y-μ)2,yआर,
μμ जहांडब्ल्यूमैंकुछ वजन है। हम इस बात का एमएल आकलनकर्ता देखेंगेμके साथ, एक ही रूप में व्यक्त किया जा सकता हैwमैंबच के कुछ समारोह εमैं=yमैं - μ संभावना समारोहएल(y;μ)=(1)द्वारा दिया जाता है
μ*=Σमैं=1nwमैंyमैंΣमैं=1nwमैं
wमैंμwमैं
εमैं=yमैं-μ^
और loglikelihood समारोह द्वारा दिया जाता है एल(y)=-nलॉग(π)- एन Σ मैं=1लॉग(1+(yमैं-μ)2) के संबंध में इसकी व्युत्पन्नμहै एल ( y )
एल(y;μ)=(1π)nΠमैं=1n11+(yमैं-μ)2
एल(y)=-nलॉग(π)-Σमैं=1nलॉग(1+(yमैं-μ)2)
μ जहां εमैं=yमैं-μ। लिखें0(ε)=1
एल(y)μ=0-Σμलॉग(1+(yमैं-μ)2)=-Σ2(yमैं-μ)1+(yमैं-μ)2(-1)=Σ2εमैं1+εमैं2
εमैं=yमैं-μ और ' 0 (ε)=10(ε)=1π11+ε2 , हम पाते हैं ' 0 (ε)0'(ε)=1π-12ε(1+ε2)2 हमl ( y ) पाते हैं
0'(ε)0(ε)=-12ε(1+ε2)211+ε2=-2ε1+ε2
जहाँ हम परिभाषा इस्तेमाल किया डब्ल्यूमैं=' 0 ( ε मैं )
एल(y)μ=-Σ0'(εमैं)0(εमैं)=-Σ0'(εमैं)0(εमैं)(-1εमैं)(-εमैं)=Σwमैंεमैं
कि याद करते हुए εमैं=yमैं-μहम समीकरण प्राप्त Σडब्ल्यूमैंyमैं=μΣडब्ल्यूमैं, जो IRLS का अनुमान लगाते समय समीकरण है। ध्यान दें कि
wमैं=0'(εमैं)0(εमैं)(-1εमैं)=-2εमैं1+εमैं2(-1εमैं)=21+εमैं2
εमैं=yमैं-μ
Σwमैंyमैं=μΣwमैं,
  1. वजन हमेशा सकारात्मक रहे हैं।wमैं
  2. यदि अवशिष्ट बड़ा है, तो हम संबंधित अवलोकन को कम वजन देते हैं।

μ^(0)

εमैं(0)=yमैं-μ^(0)
wमैं(0)=21+εमैं(0)
μ^
μ^(1)=Σwमैं(0)yमैंΣwमैं(0)
εमैं(जे)=yमैं-μ^(जे)
wमैं(जे)=21+εमैं(जे)
जे+1
μ^(जे+1)=Σwमैं(जे)yमैंΣwमैं(जे)
μ^(0),μ^(1),...,μ^(जे),...

(y)=1σ0(y-μσ)Y1,Y2,...,Ynεमैं=yमैं-μσ

एल(y)=-n2लॉग(σ2)+Σलॉग(0(yमैं-μσ))
ν=σ2
εमैंμ=-1σ
εमैंν=(yमैं-μ)(1ν)'=(yमैं-μ)-12σ3
एल(y)μ=Σ0'(εमैं)0(εमैं)εमैंμ=Σ0'(εमैं)0(εमैं)(-1σ)=-1σΣ'(εमैं)0(εमैं)(-1εमैं)(-εमैं)=1σΣwमैंεमैं
σ2
एल(y)ν=-n21ν+Σ0'(εमैं)0(εमैं)εमैंν=-n21ν+Σ0'(εमैं)0(εमैं)(-(yमैं-μ)2σ3)=-n21ν-121σ2Σ0'(εमैं)0(εमैं)εमैं=-n21ν-121νΣ0'(εमैं)0(εमैं)(-1εमैं)(-εमैं)εमैं=-n21ν+121νΣwमैंεमैं2=!0।
σ2^=1nΣwमैं(yमैं-μ^)2

निम्नलिखित में हम डबल घातीय मॉडल (ज्ञात पैमाने के साथ) और डेटा के साथ, आर का उपयोग करके एक संख्यात्मक परीक्षा देते हैं y <- c(-5,-1,0,1,5)। इस डेटा के लिए एमएल अनुमानक का वास्तविक मान 0. है। प्रारंभिक मूल्य होगा mu <- 0.5। एल्गोरिथ्म का एक पास है

  iterest <- function(y, mu) {
               w <- 1/abs(y-mu)
               weighted.mean(y,w)
               }

इस फ़ंक्शन के साथ आप "हाथ से" पुनरावृत्तियों को करने के लिए प्रयोग कर सकते हैं, फिर पुनरावृति एल्गोरिथ्म द्वारा किया जा सकता है

mu_0 <- 0.5
repeat {mu <- iterest(y,mu_0)
        if (abs(mu_0 - mu) < 0.000001) break
        mu_0 <- mu }

टीσ

wमैं=+1+εमैं2
w(ε)=1-ε1+ε-1ε

फिलहाल मैं इसे यहां छोड़ दूंगा, मैं इस पद को जारी रखूंगा।


यूयूमैं

1
मैं इसे अभी और जोड़ दूंगा, अभी समय से बाहर! विचार समान रहते हैं, लेकिन विवरण अधिक शामिल होते हैं।
kjetil b halvorsen

2
उस के लिए आ जाएगा!
kjetil b halvorsen

1
टी

2
क्या आपको लगता है कि ब्लॉग पोस्ट लिखना कहीं न कहीं इस व्याख्या को जारी रखता है? मेरे लिए वास्तव में उपयोगी है और मुझे यकीन है कि दूसरों के लिए ...
ihadanny
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.