लसो पेनल्टी डबल एक्सपोनेंशियल (लाप्लास) के बराबर क्यों है?


27

मैं अनेक संदर्भ उपस्थित में पढ़ा है कि प्रतिगमन पैरामीटर वेक्टर के लिए कमंद अनुमान B के पीछे मोड के बराबर है B जिसमें प्रत्येक के लिए पूर्व वितरण Bi एक डबल घातीय वितरण (यह भी लाप्लास वितरण के रूप में जाना जाता है) है।

मैं यह साबित करने की कोशिश कर रहा हूं, क्या कोई विवरण दे सकता है?


@ user777 मैं उस पुस्तक के माध्यम से आज थोड़ी देर के लिए अंगूठा लगा रहा था। कुछ भी प्रासंगिक नहीं मिल सका।
विंटरम्यूट

जवाबों:


30

के लिए सादगी देना सिर्फ एक चर के एक भी अवलोकन करने पर विचार कर रहा है Y ऐसी है कि

Y|μ,σ2N(μ,σ2),

μLaplace(λ) और अनुचित पूर्व f(σ)1σ>0

तब के संयुक्त घनत्व Y,μ,σ2 है आनुपातिक के लिए

f(Y,μ,σ2|λ)1σexp((yμ)2σ2)×2λeλ|μ|.

लॉग लेना और ऐसे शब्दों को त्यागना जिसमें शामिल नहीं हैं , लॉग f ( Y , μ , and 2 ) = - 1μ

logf(Y,μ,σ2)=1σ2yμ22λ|μ|.(1)

इस प्रकार (1) की अधिकतम एक एमएपी अनुमान हो सकता है और हम reparametrize के बाद वास्तव में कमंद समस्या है जाएगा λ~=λσ2

प्रतिगमन को विस्तार स्पष्ट है - की जगह के साथ एक्स β सामान्य संभावना में, और सेट पर पहले β स्वतंत्र लाप्लास के एक दृश्य होने के लिए ( λ ) वितरण।μXββ(λ)


25

यह उस मात्रा के निरीक्षण से स्पष्ट होता है जिसे LASSO अनुकूलन कर रहा है।

के लिए पहले ले लो मतलब शून्य और कुछ पैमाने के साथ स्वतंत्र लाप्लास होने के लिए τβiτ

तो p(β|τ)e12τi|βi|

डेटा के लिए मॉडल सामान्य प्रतिगमन धारणा है yiidN(Xβ,σ2)

f(y|X,β,σ2)(σ2)n/2exp(12σ2(yXβ)T(yXβ))

अब माइनस दो बार पोस्टीरियर का लॉग फॉर्म का है

1k(σ2,τ,n,p)+ 1σ2(yXβ)T(yXβ)+1τi|βi|

चलो और हम मिल - 2 लॉग -posterior कीλ=σ2/τ2log

1k(σ2,λ,n,p)+ 1σ2[(yXβ)T(yXβ)+λi|βi|]

के लिए एमएपी आकलनकर्ता ऊपर है, जो कम करता है को कम करता हैβ

S=(yXβ)T(yXβ)+λi|βi|

तो लिए MAP आकलनकर्ता LASSO है।β

(यहाँ मैं इलाज किया के रूप में प्रभावी रूप से तय हो गई है, लेकिन आप इसके साथ अन्य काम कर सकते हैं और अभी भी बाहर आ रहा LASSO मिलता है।)σ2

संपादित करें: यह वही है जो मुझे एक ऑफ लाइन रचना के लिए मिलता है; मैंने देखा कि एंड्रयू द्वारा पहले से ही एक अच्छा जवाब पोस्ट नहीं किया गया था। मेरा वास्तव में कुछ भी नहीं करता है जो पहले से ही नहीं करता है। मैं अब के लिए मेरा छोड़, क्योंकि यह करने के मामले में एक जोड़े को विकास के अधिक विवरण देता हूँ β


1
आपके उत्तर और एंड्रयू के अंतर में अंतर प्रतीत होता है। आपका जवाब regularizer का सही रूप है: , जबकि एंड्रयू है λ | μ | , जहां रैखिक प्रतिगमन में, हमें μ = X ression मिलता है । λβ1λ|μ|μ=Xβ
एलेक्स आर।

2
@AlexR मुझे लगता है कि आप एंड्रयू के उत्तर में μ गलत व्याख्या कर रहे हैं। Μ वहाँ एक से मेल खाती है केवल एक अवरोध पैदा करने के लिए नहीं के साथ एक प्रतिगमन में एक्स β एक बहु प्रतिगमन में; एक ही तर्क बड़े मामले के लिए अनुसरण करता है (मेरे जवाब के साथ समानताएं नोट करें) लेकिन सरल मामले में इसका पालन करना आसान है। एंड्रयू का उत्तर अनिवार्य रूप से सही है, लेकिन सभी बिंदुओं को मूल प्रश्न से नहीं जोड़ता है, जिससे पाठक को भरने के लिए थोड़ी सी राशि मिल जाती है। मुझे लगता है कि हमारे उत्तर सुसंगत हैं (can से संबंधित कुछ मामूली अंतरों के लिए हिसाब लगाया जा सकता है) और वह पूरी तरह से टिक के हकदार थेβ0Xβ
Glen_b -Reinstate Monica
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.