कम से कम कोण के प्रतिगमन से परस्पर संबंध कम होते और बंधे रहते हैं?


9

मैं कम से कम कोण प्रतिगमन (LAR) के लिए एक समस्या को हल करने की कोशिश कर रहा हूं। यह एक समस्या है 3.23 पृष्ठ पर 97 की Hastie एट अल।, सांख्यिकीय लर्निंग के तत्वों, 2। ईडी। (5 वीं प्रिंटिंग)

सभी चर और प्रतिक्रिया के साथ एक प्रतिगमन समस्या पर विचार करें जिसका अर्थ शून्य और मानक विचलन है। यह भी मान लें कि प्रत्येक चर में प्रतिक्रिया के साथ समान पूर्ण सहसंबंध है:

1N|xj,y|=λ,j=1,...,p

Let , पर का कम से कम वर्ग गुणांक हो और let लिए ।β^yXu(α)=αXβ^α[0,1]

मुझे यह दिखाने के लिए कहा गया है कि और मुझे इससे समस्या है। ध्यान दें कि यह मूल रूप से कह सकता है कि अवशिष्ट के साथ प्रत्येक के सहसंबंध ही मात्रा में बने रहते हैं जितना हम की ओर बढ़ते ।

1N|xj,yu(α)|=(1α)λ,j=1,...,p
xju

मैं यह भी नहीं जानता कि यह कैसे दिखाया जाए कि सहसंबंध इसके बराबर हैं:

λ(α)=(1α)(1α)2+α(2α)NRSSλ

किसी भी प्वाइंटर की अत्यधिक सराहना की जाएगी!


2
@ बेलमोंट, क्या है ? क्या आप अपनी समस्या के बारे में अधिक संदर्भ प्रदान कर सकते हैं? उदाहरण के लिए LAR के मानक गुणों के साथ लेख का लिंक बहुत मदद करेगा। u(α)
14

@ बेलमोंट, यह हस्ती, एट अल।, एलिमेंट ऑफ स्टैटिस्टिकल लर्निंग , 2 से एक समस्या की तरह दिखता है । ईडी। क्या यह होमवर्क है? यदि हां, तो आप उस टैग को जोड़ सकते हैं।
कार्डिनल

@ बेलमोंट, अब जब @cardinal ने एक पूर्ण उत्तर दिया, तो क्या आप निर्दिष्ट कर सकते हैं कि LAR वास्तव में भविष्य के संदर्भ के लिए क्या है? जवाब से देखते हुए यह कुछ प्रारंभिक बाधाओं को देखते हुए कम से कम वर्गों के उत्पादों के मानक हेरफेर है। गंभीर कारण के बिना इसके लिए एक विशेष नाम नहीं होना चाहिए।
mpiktas

1
@mpiktas, यह एक स्टेज वाइज एल्गोरिथ्म है, इसलिए हर बार जब कोई वैरिएबल नियमित पथ पर मॉडल में प्रवेश करता है या छोड़ता है, तो क्रमशः का आकार (यानी, कार्डिनैलिटी / डायमेंशन) बढ़ता या सिकुड़ जाता है और "नया" LS अनुमान का उपयोग किया जाता है। वर्तमान में "सक्रिय" चर। लसो के मामले में, जो उत्तल अनुकूलन समस्या है, प्रक्रिया अनिवार्य रूप से केकेटी स्थितियों में एक बहुत ही कुशल समाधान प्राप्त करने के लिए विशेष संरचना का शोषण कर रही है । IRLS और हेइन-बोरेल (चरणों के परिमित संख्या में अभिसरण साबित करने के लिए) पर आधारित लॉजिस्टिक प्रतिगमन, जैसे, सामान्यकरण भी हैं।β
कार्डिनल

1
@ बेलमोंट -1, जैसा कि मैंने हाल ही में हस्ती की पुस्तक खरीदी है, मैं पुष्टि कर सकता हूं, कि यह एक अभ्यास है। इसलिए मैं आपको एक बड़ा दे रहा हूं -1, चूंकि आप सभी परिभाषाएं देने का प्रबंधन भी नहीं करते हैं, इसलिए मैं संदर्भ देने की बात भी नहीं कर रहा हूं।
म्पिकटस

जवाबों:


21

यह समस्या है 3.23 पृष्ठ पर 97 की Hastie एट अल।, सांख्यिकीय लर्निंग के तत्वों , 2। ईडी। (5 वीं प्रिंटिंग)

इस समस्या की कुंजी साधारण कम से कम वर्गों (यानी, रैखिक प्रतिगमन) की एक अच्छी समझ है, विशेष रूप से सज्जित मूल्यों और अवशिष्टों की ऑर्थोगोनलिटी।

ओर्थोगोनलिटी लेम्मा : को डिज़ाइन मैट्रिक्स, को रेस्पॉन्स वेक्टर और (ट्रू) पैरामीटर मानें। मान लिया जाये कि पूर्ण रैंक है (जो हम भर में होगा), की OLS अनुमान हैं । फिट किए गए मान । तब । है यही कारण है, फिट मान हैं ओर्थोगोनल बच करने के लिए। यह ।Xn×pyβXββ^=(XTX)1XTyy^=X(XTX)1XTyy^,yy^=y^T(yy^)=0XT(yy^)=XTyXTX(XTX)1XTy=XTyXTy=0

अब, चलो एक स्तंभ वेक्टर ऐसी है कि हो सकता है है वीं के स्तंभ । मान ली गई शर्तें हैं:xjxjjX

  • 1Nxj,xj=1 प्रत्येक , ,j1Ny,y=1
  • 1Nxj,1p=1Ny,1p=0 जहां लंबाई , और वाले के एक वेक्टर को दर्शाता है1pp
  • 1N|xj,y|=λ सभी के लिए ।j

ध्यान दें कि विशेष रूप से , ऑर्थोगोनलिटी लेम्मा का अंतिम कथन सभी लिए के समान है ।xj,yy^=0j


सहसंबंध बंधे हुए हैं

अब, । तो, और दाईं ओर का दूसरा शब्द ऑर्थोगोनलिटी लेम्मा से शून्य है , इसलिए रूप में वांछित। सहसंबंधों का पूर्ण मूल्य बस है u(α)=αXβ^=αy^

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
1N|xj,yu(α)|=(1α)λ,
ρ^j(α)=1N|xj,yu(α)|1Nxj,xj1Nyu(α),yu(α)=(1α)λ1Nyu(α),yu(α)

नोट : ऊपर का दाहिना हाथ से स्वतंत्र है और अंश केवल covariance के समान है क्योंकि हमने मान लिया है कि सभी का और केन्द्रित है (इसलिए, विशेष रूप से, इस बीच कोई घटाव आवश्यक नहीं है )।jxjy

क्या बात है? जैसा कि बढ़ जाता है प्रतिक्रिया वेक्टर को संशोधित किया जाता है ताकि यह मॉडल ( प्रतिबंधित! ) की ओर अपना रास्ता इंच करे , मॉडल में केवल पहले मापदंडों को शामिल करने से प्राप्त समाधान । यह एक साथ अनुमानित मापदंडों को संशोधित करता है क्योंकि वे (संशोधित) प्रतिक्रिया वेक्टर के साथ भविष्यवाणियों के सरल आंतरिक उत्पाद हैं। संशोधन हालांकि एक विशेष रूप लेता है। यह भविष्यवक्ताओं के बीच सहसंबंधों (परिमाण) और संशोधित प्रतिक्रिया को पूरी प्रक्रिया में रखता है (भले ही सहसंबंध का मूल्य बदल रहा हो)। इस बारे में सोचें कि यह ज्यामितीय रूप से क्या कर रहा है और आप प्रक्रिया के नाम को समझेंगे!αp


(निरपेक्ष) सहसंबंध का स्पष्ट रूप

आइए हर शब्द पर ध्यान दें, क्योंकि अंश पहले से ही आवश्यक रूप में है। हमारे पास

yu(α),yu(α)=(1α)y+αyu(α),(1α)y+αyu(α).

में प्रतिस्थापित करना और आंतरिक उत्पाद की रैखिकता का उपयोग करना, हमें मिलता हैu(α)=αy^

yu(α),yu(α)=(1α)2y,y+2α(1α)y,yy^+α2yy^,yy^.

उसका अवलोकन करो

  • y,y=N धारणा से,
  • y,yy^=yy^,yy^+y^,yy^=yy^,yy^ , orthogonality lemma (अभी तक फिर से) को बीच में दूसरे शब्द पर लागू करके; तथा,
  • yy^,yy^=RSS परिभाषा द्वारा।

यह सब एक साथ रखते हुए, आप देखेंगे कि हमें मिल जाएगा

ρ^j(α)=(1α)λ(1α)2+α(2α)NRSS=(1α)λ(1α)2(1RSSN)+1NRSS

चीजों को लपेटने के लिए, और इसलिए यह स्पष्ट है कि रूप से घट रही है और as ।1RSSN=1N(y,y,yy^,yy^)0ρ^j(α)αρ^j(α)0α1


उपसंहार : यहां विचारों पर ध्यान केंद्रित करें। वास्तव में केवल एक ही है। ओर्थोगोनालिटी लेम्मा हमारे लिए लगभग सभी काम करता है। बाकी सिर्फ बीजगणित, संकेतन और इन अंतिम दो को काम करने की क्षमता है।


2
@ कार्डिनल, +1। इसका उत्तर प्रश्न की तुलना में बेहतर है।
mpiktas

@ कार्डिनल, आप लिंक को अमेज़ॅन या किसी अन्य साइट में बदलना चाह सकते हैं। मुझे लगता है कि पूरी पुस्तक से जुड़ने से कुछ कॉपीराइट मुद्दे उठ सकते हैं।
14

3
@mpiktas, nope कोई कॉपीराइट समस्या नहीं। यह पुस्तक के लिए आधिकारिक वेबसाइट है। लेखकों ने स्प्रिंगर से पीडीएफ को स्वतंत्र रूप से ऑनलाइन उपलब्ध कराने की अनुमति प्राप्त की। (साइट पर इस आशय का नोट देखें।) मुझे लगता है कि उन्हें स्टीफन बॉयड और उनके उत्तल अनुकूलन पाठ से विचार मिला । उम्मीद है कि अगले कुछ वर्षों में इस तरह की प्रवृत्ति भाप लेगी। का आनंद लें!
कार्डिनल

@ कार्डिनल, ऊह बड़े पैमाने पर धन्यवाद! यह लेखकों से शक्तिशाली है।
mpiktas

@mpiktas, यह अब तक की सबसे लोकप्रिय पुस्तक है जो स्टैटिस्टिक्स में स्प्रिंगर सीरीज़ की है। यह एक iPad पर अच्छा लगता है। जो मुझे याद दिलाता है --- मुझे इस पर बॉयड का पाठ भी डाउनलोड करना चाहिए। चीयर्स।
कार्डिनल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.