Let केंद्रित भविष्यवक्ता मैट्रिक्स है और इसके विलक्षण मूल्य विघटन with को विकर्ण तत्वों साथ विकर्ण मैट्रिक्स । n × p X = U S V ⊤ S s iXn×pX=USV⊤Ssi
साधारण कम से कम वर्गों (OLS) प्रतिगमन के फिट किए गए मूल्यों कोरिज प्रतिगमन के फिट किए गए मूल्यों को द्वारा दिया जाता हैफिट पीसीए प्रतिगमन के साथ (पीसीआर) मूल्यों घटकों द्वारा दिया जाता हैY rमैंघजीई=एक्सβrमैंघजीई=एक्स(एक्स⊤एक्स+λमैं)-1एक्स⊤y=यू
y^OLS=XβOLS=X(X⊤X)−1X⊤y=UU⊤y.
कश्मीर y पीसीआर=एक्सपीसीएβपीसीआर=यूy^ridge=Xβridge=X(X⊤X+λI)−1X⊤y=Udiag{s2is2i+λ}U⊤y.
kकश्मीरy^PCR=XPCAβPCR=Udiag{1,…,1,0,…0}U⊤y,
जहाँ शून्य के बाद हैं।
k
यहाँ से हम देख सकते हैं कि:
यदि तो ।λ=0y^ridge=y^OLS
यदि तो बड़ा विलक्षण मान , कम यह रिज प्रतिगमन में दंडित किया जाएगा। छोटे एकवचन मान ( और छोटे) को सबसे अधिक दंडित किया जाता है।λ>0sis2i≈λ
इसके विपरीत, पीसीए प्रतिगमन में, बड़े विलक्षण मूल्यों बरकरार रखा जाता है, और छोटे लोगों (निश्चित संख्या के बाद ) पूरी तरह से हटा दिया जाता है। यह पहले वाले के लिए और बाकी के लिए के अनुरूप होगा ।kλ=0kλ=∞
इसका मतलब है कि रिज प्रतिगमन को पीसीआर के "सुचारू संस्करण" के रूप में देखा जा सकता है।
(यह अंतर्ज्ञान उपयोगी है, लेकिन हमेशा पकड़ में नहीं आता है; उदाहरण के लिए, यदि सभी लगभग समान हैं, तो रिज प्रतिगमन केवल लगभग सभी समान रूप से सभी प्रमुख घटकों को दंडित करने में सक्षम होगा और पीसीआर से दृढ़ता से भिन्न हो सकता है)।siX
रिज रिग्रेशन अभ्यास में बेहतर प्रदर्शन करने के लिए जाता है (जैसे कि उच्च क्रॉस-मान्य प्रदर्शन करने के लिए)।
अब आपके प्रश्न का विशेष रूप से उत्तर देना: if , तो । मैं नहीं देखता कि यह सबसे छोटे को हटाने के लिए कैसे अनुरूप हो सकता है । मुझे लगता है कि यह गलत है।λ→0y^ridge→y^OLSsi
एक अच्छा संदर्भ द स्टैटिस्टिकल ऑफ स्टैटिस्टिकल लर्निंग , धारा 3.4.1 "रिज रिग्रेशन" है।
इस धागे को भी देखें: प्रतिगमन में रिज नियमितीकरण की व्याख्या और विशेष रूप से @BrianBorchers द्वारा उत्तर।