कुछ साल पहले मैंने अपने छात्रों के लिए (स्पेनिश में) इस बारे में एक पेपर लिखा था, इसलिए मैं यहाँ उन स्पष्टीकरणों को फिर से लिखने की कोशिश कर सकता हूँ। मैं बढ़ती जटिलता के उदाहरणों की एक श्रृंखला के माध्यम से IRLS (पुनरावृत्त कम से कम वर्ग) को देखूंगा। पहले उदाहरण के लिए हमें एक स्थान-स्तरीय परिवार की अवधारणा की आवश्यकता है। बता दें कि किसी अर्थ में शून्य पर केंद्रित घनत्व फ़ंक्शन है। हम परिभाषित करते हुए घनत्व के एक परिवार का निर्माण कर सकते
च ( एक्स ) = च ( एक्स , μ , σ ) = 1च0
जहांσ>0एक स्केल पैरामीटर है औरμएक लोकेशन पैरामीटर है। माप त्रुटि मॉडल में, जहां सामान्य रूप से त्रुटि शब्द को सामान्य वितरण के रूप में मॉडलिंग की जाती है, हम उस सामान्य वितरण के स्थान पर ऊपर निर्मित एक स्थान-स्तरीय परिवार का उपयोग कर सकते हैं। जबच0मानक सामान्य बंटन है, निर्माण ऊपर देताएन(μ,σ)परिवार।
च( x ) = एफ( एक्स , μ , σ) = 1σच0( x - μσ)
σ> 0μच0एन ( μ , σ)
अब हम कुछ सरल उदाहरणों पर IRLS का उपयोग करेंगे। सबसे पहले हम मॉडल Y 1 , Y 2 , … , Y n में ML (अधिकतम संभावना) अनुमानक पाएंगे
घनत्व f ( y ) = 1 के साथ
iid
Y1, वाई2, … , वायnआईआईडी
कॉची वितरण स्थान परिवार
μ (तो यह एक स्थान परिवार है)। लेकिन पहले कुछ संकेतन। भारित की कम से कम वर्गों आकलनकर्ता
μ द्वारा दिया जाता है
μ * = Σ n मैं = 1 डब्ल्यू मैं y मैंच( y) = 1π11 + ( y- μ )2,y∈ आर ,
μμ
जहां
डब्ल्यूमैंकुछ वजन है। हम इस बात का एमएल आकलनकर्ता देखेंगे
μके साथ, एक ही रूप में व्यक्त किया जा सकता है
wमैंबच के कुछ समारोह
εमैं=yमैं - μ ।
संभावना समारोह
एल(y;μ)=(1)द्वारा दिया जाता है
μ*= ∑nमैं = १wमैंyमैंΣnमैं = १wमैं।
wमैंμwमैंεमैं= यमैं- μ^।
और loglikelihood समारोह द्वारा दिया जाता है
एल(y)=-nलॉग(π)- एन Σ मैं=1लॉग(1+(yमैं-μ)2)।
के संबंध में इसकी व्युत्पन्न
μहै
∂ एल ( y )L ( y); μ ) = ( 1 )π)nΠमैं = १n11 + ( yमैं- μ )2
l ( y) = - एन लॉग( π) - ∑मैं = १nलॉग( 1 + ( y)मैं- μ )2) का है ।
μ
जहां
εमैं=yमैं-μ। लिखें
च0(ε)=1∂l ( y)∂μ===0 - Σ ∂∂μलॉग( 1 + ( y)मैं- μ )2)- Σ 2 ( yमैं- μ )1 + ( yमैं- μ )2⋅ ( - 1 )Σ 2 εमैं1 + ϵ2मैं
εमैं= यमैं- μ और
च ' 0 (ε)=1च0( Ε ) = 1π11 + ϵ2 , हम पाते हैं
च ' 0 (ε)च'0( Ε ) = 1π- 1 ⋅ 2 ε( 1 + ϵ2)2
हम
∂ l ( y ) पाते हैं
च'0( ϵ )च0( ϵ )= - 1 ⋅ 2 ε( 1 + ϵ2)211 + ϵ2= - 2 ϵ1 + ϵ2।
जहाँ हम परिभाषा इस्तेमाल किया
डब्ल्यूमैं= च ' 0 ( ε मैं )∂l ( y)∂μ===- ∑ एफ'0( ϵमैं)च0( ϵमैं)- ∑ एफ'0( ϵमैं)च0( ϵमैं)⋅ ( - 1εमैं) ⋅(- εमैं)∑ वमैंεमैं
कि याद करते हुए
εमैं=yमैं-μहम समीकरण प्राप्त
Σडब्ल्यूमैंyमैं=μΣडब्ल्यूमैं,
जो IRLS का अनुमान लगाते समय समीकरण है। ध्यान दें कि
wमैं= च'0( ϵमैं)च0( ϵमैं)⋅ ( - 1εमैं) = - 2 ϵमैं1 + ϵ2मैं⋅ ( - 1εमैं) = 21 + ϵ2मैं।
εमैं= यमैं- μ∑ वमैंyमैं= Μ Σ wमैं,
- वजन हमेशा सकारात्मक रहे हैं।wमैं
- यदि अवशिष्ट बड़ा है, तो हम संबंधित अवलोकन को कम वजन देते हैं।
μ^( 0 )
ε( 0 )मैं= यमैं- μ^( 0 )
w( 0 )मैं= २1 + ϵ( 0 )मैं।
μ^μ^( 1 )= ∑ डब्ल्यू( 0 )मैंyमैं∑ व( 0 )मैं।
ε( जे )मैं= यमैं-μ^( जे )
w( जे )मैं= २1 + ϵ( जे )मैं।
ज + १μ^( j + 1 )= ∑ डब्ल्यू( जे )मैंyमैं∑ व( जे )मैं।
μ^( 0 ), μ^( 1 ), … , Μ^( जे ), …
च( y) = 1σच0( y- μσ)Y1, वाई2, … , वायnεमैं= यमैं- μσ
l ( y) = - एन2लॉग( σ2) + ∑ लॉग( च0( yमैं- μσ) )।
ν= σ2∂εमैं∂μ= - १σ
∂εमैं∂ν= ( y)मैं- μ ) ( 1 )ν--√)'= ( y)मैं- μ ) ⋅ - 12 σ3।
∂l ( y)∂μ= ∑ च'0( ϵमैं)च0( ϵमैं)⋅ ∂εमैं∂μ= ∑ च'0( ϵमैं)च0( ϵमैं)⋅ ( - 1σ) =- 1σ∑ च'ओ( ϵमैं)च0( ϵमैं)⋅ ( - 1εमैं) (- ϵमैं)= 1σ∑ वमैंεमैं
σ2∂एल (y)∂ν=====- एन21ν+ ∑ च'0( ϵमैं)च0( ϵमैं)⋅ ∂εमैं∂ν- एन21ν+ ∑ च'0( ϵमैं)च0( ϵमैं)⋅ ( - ( yमैं- μ )2 σ3)- एन21ν- 121σ2∑ च'0( ϵमैं)च0( ϵमैं)⋅ εमैं- एन21ν- 121ν∑ च'0( ϵमैं)च0( ϵमैं)⋅ ( - 1εमैं) (- ϵमैं) ⋅ εमैं- एन21ν+ 121ν∑ वमैंε2मैं=!0।
σ2^= 1n∑ वमैं( yमैं- μ^)2।
निम्नलिखित में हम डबल घातीय मॉडल (ज्ञात पैमाने के साथ) और डेटा के साथ, आर का उपयोग करके एक संख्यात्मक परीक्षा देते हैं y <- c(-5,-1,0,1,5)
। इस डेटा के लिए एमएल अनुमानक का वास्तविक मान 0. है। प्रारंभिक मूल्य होगा mu <- 0.5
। एल्गोरिथ्म का एक पास है
iterest <- function(y, mu) {
w <- 1/abs(y-mu)
weighted.mean(y,w)
}
इस फ़ंक्शन के साथ आप "हाथ से" पुनरावृत्तियों को करने के लिए प्रयोग कर सकते हैं, फिर पुनरावृति एल्गोरिथ्म द्वारा किया जा सकता है
mu_0 <- 0.5
repeat {mu <- iterest(y,mu_0)
if (abs(mu_0 - mu) < 0.000001) break
mu_0 <- mu }
टीकσ
wमैं= के + १के + ϵ2मैं।
डब्ल्यू ( ϵ ) = 1 - ईε1 + ईε⋅ - 1ε।
फिलहाल मैं इसे यहां छोड़ दूंगा, मैं इस पद को जारी रखूंगा।