एसवीएम का उपयोग करते समय, हमें एक कर्नेल का चयन करना होगा।
मुझे आश्चर्य है कि एक कर्नेल का चयन कैसे करें। कर्नेल चयन पर कोई मानदंड?
एसवीएम का उपयोग करते समय, हमें एक कर्नेल का चयन करना होगा।
मुझे आश्चर्य है कि एक कर्नेल का चयन कैसे करें। कर्नेल चयन पर कोई मानदंड?
जवाबों:
कर्नेल प्रभावी रूप से एक समानता उपाय है, इसलिए रॉबिन (+1) द्वारा सुझाए गए आक्रमणों के पूर्व ज्ञान के अनुसार एक कर्नेल चुनना एक अच्छा विचार है।
विशेषज्ञ ज्ञान की अनुपस्थिति में, रेडियल बेसिस फ़ंक्शन कर्नेल एक अच्छा डिफ़ॉल्ट कर्नेल बनाता है (एक बार जब आप इसे स्थापित कर लेते हैं तो यह एक गैर-रैखिक मॉडल की आवश्यकता होती है)।
कर्नेल और कर्नेल / नियमितीकरण मापदंडों का विकल्प एक क्रॉस-वाल्ड्रेशन आधारित मॉडल चयन (या त्रिज्या-मार्जिन या स्पैन सीमा का उपयोग करके) को अनुकूलित करके स्वचालित किया जा सकता है। सबसे सरल बात यह है कि नेल्डर-मीड सिम्पलेक्स विधि का उपयोग करके एक निरंतर मॉडल चयन मानदंड को कम करना है, जिसमें ढाल गणना की आवश्यकता नहीं है और हाइपर-मापदंडों की समझदार संख्या के लिए अच्छी तरह से काम करता है। यदि आपके पास ट्यून करने के लिए कुछ हाइपर-पैरामीटर्स हैं, तो मॉडल चयन मानदंड के भिन्नता के कारण स्वचालित मॉडल के चयन में गंभीर ओवर-फिटिंग होने की संभावना है। ढाल आधारित अनुकूलन का उपयोग करना संभव है, लेकिन प्रदर्शन लाभ आमतौर पर इसे कोड करने के प्रयास के लायक नहीं है)।
कर्नेल और कर्नेल / नियमितीकरण मापदंडों का स्वचालित विकल्प एक मुश्किल मुद्दा है, क्योंकि यह मॉडल चयन मानदंड (आमतौर पर क्रॉस-सत्यापन आधारित) को ओवरफिट करने के लिए बहुत आसान है, और आप इससे भी बदतर मॉडल के साथ समाप्त हो सकते हैं। स्वचालित मॉडल चयन प्रदर्शन मूल्यांकन को भी पूर्वाग्रहित कर सकता है, इसलिए सुनिश्चित करें कि आपका प्रदर्शन मूल्यांकन मॉडल (प्रशिक्षण और मॉडल चयन) की फिटिंग की पूरी प्रक्रिया का मूल्यांकन करता है, विवरण के लिए, देखें
GC Cawley और NLC टैलबोट, हाइपर-मापदंडों के बेयसियन नियमितीकरण के माध्यम से मॉडल चयन में ओवर-फिटिंग को रोकना, जर्नल ऑफ़ मशीन लर्निंग रिसर्च, वॉल्यूम 8, पृष्ठ 841-861, अप्रैल 2007। (पीडीएफ)
तथा
GC Cawley और NLC टैलबोट, मॉडल चयन में ओवर-फिटिंग और प्रदर्शन मूल्यांकन में बाद के चयन पूर्वाग्रह, जर्नल ऑफ़ मशीन लर्निंग रिसर्च, वॉल्यूम। 11, पीपी। 2079-2107, जुलाई 2010. (पीडीएफ)
यदि आप सुनिश्चित नहीं हैं कि सबसे अच्छा क्या होगा तो आप चयन की स्वचालित तकनीकों (जैसे क्रॉस वैधीकरण, ...) का उपयोग कर सकते हैं। इस मामले में आप भी एक का उपयोग कर सकते संयोजन अलग कर्नेल के साथ प्राप्त classifiers के (वर्गीकरण यदि आपकी समस्या है)।
हालांकि , एक कर्नेल के साथ काम करने का "लाभ" यह है कि आप सामान्य "यूक्लिडियन" ज्यामिति को बदलते हैं ताकि यह अपनी समस्या फिट हो। इसके अलावा, आपको वास्तव में यह समझने की कोशिश करनी चाहिए कि आपकी समस्या के लिए कर्नेल की रुचि क्या है, आपकी समस्या की ज्यामिति के लिए क्या विशेष है । इसमें शामिल हो सकते हैं:
मुझे हमेशा यह महसूस होता है कि SVM के लिए कोई भी हाइपर पैरामीटर चयन ग्रिड खोज के साथ संयोजन में क्रॉस सत्यापन के माध्यम से किया जाता है।
सामान्य तौर पर, RBF कर्नेल एक उचित rst विकल्प होता है। इसके अलावा, रैखिक कर्नेल RBF का एक विशेष मामला है, विशेष रूप से, जब सुविधाओं की संख्या बहुत बड़ी होती है, तो कोई बस रैखिक कर्नेल का उपयोग कर सकता है।