यह समस्या है 3.23 पृष्ठ पर 97 की Hastie एट अल।, सांख्यिकीय लर्निंग के तत्वों , 2। ईडी। (5 वीं प्रिंटिंग) ।
इस समस्या की कुंजी साधारण कम से कम वर्गों (यानी, रैखिक प्रतिगमन) की एक अच्छी समझ है, विशेष रूप से सज्जित मूल्यों और अवशिष्टों की ऑर्थोगोनलिटी।
ओर्थोगोनलिटी लेम्मा : को डिज़ाइन मैट्रिक्स, को रेस्पॉन्स वेक्टर और (ट्रू) पैरामीटर मानें। मान लिया जाये कि पूर्ण रैंक है (जो हम भर में होगा), की OLS अनुमान हैं । फिट किए गए मान । तब । है यही कारण है, फिट मान हैं ओर्थोगोनल बच करने के लिए। यह ।एक्सn×pyβXββ^=(XTX)−1XTyy^=X(XTX)−1XTy⟨y^,y−y^⟩=y^T(y−y^)=0XT(y−y^)=XTy−XTX(XTX)−1XTy=XTy−XTy=0
अब, चलो एक स्तंभ वेक्टर ऐसी है कि हो सकता है है वीं के स्तंभ । मान ली गई शर्तें हैं:xjxjjX
- 1N⟨xj,xj⟩=1 प्रत्येक , ,j1N⟨y,y⟩=1
- 1N⟨xj,1p⟩=1N⟨y,1p⟩=0 जहां लंबाई , और वाले के एक वेक्टर को दर्शाता है1pp
- 1N|⟨xj,y⟩|=λ सभी के लिए ।j
ध्यान दें कि विशेष रूप से , ऑर्थोगोनलिटी लेम्मा का अंतिम कथन सभी लिए के समान है ।⟨xj,y−y^⟩=0j
सहसंबंध बंधे हुए हैं
अब, । तो,
और दाईं ओर का दूसरा शब्द ऑर्थोगोनलिटी लेम्मा से शून्य है , इसलिए
रूप में वांछित। सहसंबंधों का पूर्ण मूल्य बस है
u(α)=αXβ^=αy^
⟨xj,y−u(a)⟩=⟨xj,(1−α)y+αy−αy^⟩=(1−α)⟨xj,y⟩+α⟨xj,y−y^⟩,
1N|⟨xj,y−u(α)⟩|=(1−α)λ,
ρ^j(α)=1N|⟨xj,y−u(α)⟩|1N⟨xj,xj⟩−−−−−−−−√1N⟨y−u(α),y−u(α)⟩−−−−−−−−−−−−−−−−−−√=(1−α)λ1N⟨y−u(α),y−u(α)⟩−−−−−−−−−−−−−−−−−−√
नोट : ऊपर का दाहिना हाथ से स्वतंत्र है और अंश केवल covariance के समान है क्योंकि हमने मान लिया है कि सभी का और केन्द्रित है (इसलिए, विशेष रूप से, इस बीच कोई घटाव आवश्यक नहीं है )।jxjy
क्या बात है? जैसा कि बढ़ जाता है प्रतिक्रिया वेक्टर को संशोधित किया जाता है ताकि यह मॉडल ( प्रतिबंधित! ) की ओर अपना रास्ता इंच करे , मॉडल में केवल पहले मापदंडों को शामिल करने से प्राप्त समाधान । यह एक साथ अनुमानित मापदंडों को संशोधित करता है क्योंकि वे (संशोधित) प्रतिक्रिया वेक्टर के साथ भविष्यवाणियों के सरल आंतरिक उत्पाद हैं। संशोधन हालांकि एक विशेष रूप लेता है। यह भविष्यवक्ताओं के बीच सहसंबंधों (परिमाण) और संशोधित प्रतिक्रिया को पूरी प्रक्रिया में रखता है (भले ही सहसंबंध का मूल्य बदल रहा हो)। इस बारे में सोचें कि यह ज्यामितीय रूप से क्या कर रहा है और आप प्रक्रिया के नाम को समझेंगे!αp
(निरपेक्ष) सहसंबंध का स्पष्ट रूप
आइए हर शब्द पर ध्यान दें, क्योंकि अंश पहले से ही आवश्यक रूप में है। हमारे पास
⟨y−u(α),y−u(α)⟩=⟨(1−α)y+αy−u(α),(1−α)y+αy−u(α)⟩.
में प्रतिस्थापित करना और आंतरिक उत्पाद की रैखिकता का उपयोग करना, हमें मिलता हैu(α)=αy^
⟨y−u(α),y−u(α)⟩=(1−α)2⟨y,y⟩+2α(1−α)⟨y,y−y^⟩+α2⟨y−y^,y−y^⟩.
उसका अवलोकन करो
- ⟨y,y⟩=N धारणा से,
- ⟨y,y−y^⟩=⟨y−y^,y−y^⟩+⟨y^,y−y^⟩=⟨y−y^,y−y^⟩ , orthogonality lemma (अभी तक फिर से) को बीच में दूसरे शब्द पर लागू करके; तथा,
- ⟨y−y^,y−y^⟩=RSS परिभाषा द्वारा।
यह सब एक साथ रखते हुए, आप देखेंगे कि हमें मिल जाएगा
ρ^j(α)=(1−α)λ(1−α)2+α(2−α)NRSS−−−−−−−−−−−−−−−−−√=(1−α)λ(1−α)2(1−RSSN)+1NRSS−−−−−−−−−−−−−−−−−−−−−√
चीजों को लपेटने के लिए, और इसलिए यह स्पष्ट है कि रूप से घट रही है और as ।1−RSSN=1N(⟨y,y,⟩−⟨y−y^,y−y^⟩)≥0ρ^j(α)αρ^j(α)↓0α↑1
उपसंहार : यहां विचारों पर ध्यान केंद्रित करें। वास्तव में केवल एक ही है। ओर्थोगोनालिटी लेम्मा हमारे लिए लगभग सभी काम करता है। बाकी सिर्फ बीजगणित, संकेतन और इन अंतिम दो को काम करने की क्षमता है।