रैखिक प्रतिगमन में नियमितीकरण पैरामीटर मानों को भी दंडित क्यों करता है?


9

वर्तमान में रिज रिग्रेशन सीखना और मैं अधिक जटिल मॉडल (या अधिक जटिल मॉडल की परिभाषा) के दंड के बारे में थोड़ा भ्रमित था।

मैं जो समझता हूं, उससे जरूरी नहीं है कि मॉडल जटिलता बहुपद के आदेश के अनुरूप हो। इसलिए:

2+3+4एक्स2+5एक्स3+6एक्स4
इससे अधिक जटिल मॉडल है:
5एक्स5

और मुझे पता है कि नियमितीकरण का उद्देश्य मॉडल की जटिलता को कम रखना है, इसलिए उदाहरण के लिए कहें कि हमारे पास 5 वां क्रम बहुपद है

(एक्स;w)=w0+w1एक्स+w2एक्स2+w3एक्स3+w4एक्स4+w5एक्स5

अधिक पैरामीटर जो 0 बेहतर हैं।

लेकिन जो मुझे समझ में नहीं आता है, अगर यह एक ही आदेश बहुपद था तो निचले पैरामीटर मान को कम दंडित क्यों किया जाता है? तो क्यों होगा:

2+5एक्स+एक्स3
से कम जटिल मॉडल हो

433+342एक्स+323एक्स3
वे दोनों एक ही बहुपद क्रम के हैं, और पैरामीटर मान केवल डेटा पर निर्भर करते हैं।

धन्यवाद!

जवाबों:


10

पैरामीटर मान केवल डेटा पर निर्भर करते हैं

यह आपके प्रश्न का प्रमुख भाग है। यह वह जगह है जहाँ आप भ्रमित हैं।

हां, पैरामीटर मान डेटा पर निर्भर करते हैं। लेकिन डेटा तब तय होता है जब हम किसी मॉडल को फिट करते हैं। दूसरे शब्दों में, हम टिप्पणियों पर एक मॉडल सशर्त फिट होते हैं । यह अलग-अलग मॉडल की जटिलता की तुलना करने के लिए समझ में नहीं आता है जो अलग-अलग डेटासेट में फिट किए गए थे

और एक निश्चित डेटासेट के संदर्भ में, एक मॉडल

2+5x+x3

वास्तव में सबसे सरल संभव मॉडल के करीब है, अर्थात् फ्लैट शून्य मॉडल, की तुलना में

433+342x+323x3,

और यह आपकी टिप्पणियों के पैमाने की परवाह किए बिना रहता है।

संयोग से, अवरोधन (2 तथा 433आपके उदाहरण में) अक्सर दंडित नहीं किया जाता है, उदाहरण के लिए, अधिकांश लास्सो योगों में, क्योंकि हम आम तौर पर टिप्पणियों के समग्र औसत पर कब्जा करने के लिए स्वतंत्र रूप से भिन्न होने देते हैं। दूसरे शब्दों में, हम मॉडल को टिप्पणियों के औसत की ओर सिकोड़ते हैं, न कि एक पूर्ण शून्य मॉडल (जहां शून्य अक्सर मनमाना होगा)। इस अर्थ में, एक फ्लैट2 और एक फ्लैट 433 मॉडल को समान रूप से जटिल माना जाएगा।


1
निम्न परिमाण गुणांक उच्च गुणांक की तुलना में फ्लैट शून्य से दूर हैं? क्या यह एक टाइपो है, या मैं गलतफहमी है कि क्यों एक दूर-दूर-से-निरंतर मॉडल को एक करीब-से-निरंतर मॉडल के रूप में ज्यादा दंडित नहीं किया जाता है?
आरएम

क्षमा करें, यह वास्तव में एक टाइपो था। मुझे संपादित करने दो। इस पर ध्यान दिलाने के लिए धन्यवाद!
स्टीफ़न कोलासा
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.