एक गाऊसी रेडियल बेसिस फ़ंक्शन (RBF) के साथ रैखिक प्रतिगमन करने और एक गाऊसी कर्नेल के साथ रैखिक प्रतिगमन करने में क्या अंतर है?
एक गाऊसी रेडियल बेसिस फ़ंक्शन (RBF) के साथ रैखिक प्रतिगमन करने और एक गाऊसी कर्नेल के साथ रैखिक प्रतिगमन करने में क्या अंतर है?
जवाबों:
लागू होने वाले नियमितीकरण में एकमात्र वास्तविक अंतर है। एक नियमित रूप से आरबीएफ नेटवर्क आमतौर पर वेट के स्क्वैड मान के आधार पर पेनल्टी का उपयोग करता है। कर्नेल संस्करण के लिए, दंड आमतौर पर कर्नेल द्वारा प्रेरित फीचर स्पेस में निर्मित रैखिक मॉडल के भार के वर्ग मानदंड पर होता है। इसका मुख्य व्यावहारिक अंतर यह है कि RBF नेटवर्क के लिए दंड RBF नेटवर्क के केंद्रों पर निर्भर करता है (और इसलिए उपयोग किए गए डेटा के नमूने पर) जबकि RBF कर्नेल के लिए, प्रेरित सुविधा स्थान नमूना की परवाह किए बिना समान है। डेटा, इसलिए जुर्माना मॉडल के कार्य पर एक दंड है , बजाय इसके पैरामीटर पर ।
दूसरे शब्दों में, दोनों मॉडलों के लिए हमारे पास है
आरबीएफ नेटवर्क दृष्टिकोण के लिए, प्रशिक्षण मानदंड है
RBF गिरी विधि के लिए, हम है कि , और → डब्ल्यू = Σ ℓ मैं = 1 α मैं φ ( → एक्स मैं ) । इसका मतलब है कि प्रेरित सुविधा अंतरिक्ष में मॉडल के वजन, पर एक वर्ग के आदर्श दंड → डब्ल्यू दोहरी मानकों के संदर्भ में लिखा जा सकता है, → अल्फा के रूप में
जहां सभी प्रशिक्षण पैटर्न के लिए कर्नेल के जोड़े-वार मूल्यांकन का मैटिक्स है। प्रशिक्षण की कसौटी तब है
।
नियमितीकरण शब्द में दो मॉडलों के बीच एकमात्र अंतर है।
कर्नेल दृष्टिकोण का मुख्य सैद्धांतिक लाभ यह है कि यह आपको एक गैर-रैखिक मॉडल की व्याख्या करने के लिए एक निश्चित गैर-रैखिक परिवर्तन के बाद रैखिक मॉडल के रूप में व्याख्या करने की अनुमति देता है जो डेटा के नमूने पर निर्भर नहीं करता है। इस प्रकार रेखीय मॉडल के लिए मौजूद कोई भी सांख्यिकीय शिक्षण सिद्धांत स्वचालित रूप से गैर-रैखिक संस्करण में स्थानांतरित हो जाता है। हालाँकि, जब आप कोशिश करते हैं और कर्नेल मापदंडों को ट्यून करते हैं, तो यह सब टूट जाता है, जिस बिंदु पर हम सैद्धांतिक रूप से उसी बिंदु पर वापस आ जाते हैं जब हम RBF (और MLP) तंत्रिका नेटवर्क के साथ थे। इसलिए सैद्धांतिक लाभ शायद उतना महान नहीं है जितना हम चाहेंगे।
क्या प्रदर्शन के मामले में कोई वास्तविक अंतर आने की संभावना है? शायद ज्यादा नहीं। "नो फ्री लंच" प्रमेयों से पता चलता है कि अन्य सभी पर किसी भी एल्गोरिथ्म की कोई प्राथमिकता-प्राथमिकता श्रेष्ठता नहीं है, और नियमितीकरण में अंतर काफी सूक्ष्म है, इसलिए यदि संदेह हो तो दोनों को आज़माएं और जैसे कि क्रॉस-वैधीकरण के अनुसार सबसे अच्छा चुनें।