जवाबों:
चार मुख्य फायदे हैं: सबसे पहले इसमें एक नियमितीकरण पैरामीटर है, जो उपयोगकर्ता को ओवर-फिटिंग से बचने के बारे में सोचता है। दूसरे यह कर्नेल ट्रिक का उपयोग करता है, इसलिए आप कर्नेल को इंजीनियरिंग के माध्यम से समस्या के बारे में विशेषज्ञ ज्ञान में निर्मित कर सकते हैं। तीसरे रूप से एक एसवीएम को उत्तल अनुकूलन समस्या (कोई स्थानीय मिनीमा) द्वारा परिभाषित किया गया है जिसके लिए कुशल तरीके (जैसे एसएमओ) हैं। अंत में, यह परीक्षण त्रुटि दर पर एक बाध्यता के लिए एक अनुमान है, और इसके पीछे सिद्धांत का एक पर्याप्त निकाय है जो बताता है कि यह एक अच्छा विचार होना चाहिए।
नुकसान यह है कि सिद्धांत वास्तव में नियमितीकरण और कर्नेल मापदंडों और गिरी की पसंद के लिए मापदंडों के निर्धारण को कवर करता है। एक तरह से एसवीएम मापदंडों के अनुकूलन से लेकर मॉडल चयन तक ओवर-फिटिंग की समस्या को आगे बढ़ाता है। अफसोसजनक कर्नेल मॉडल मॉडल चयन मानदंड को ओवर-फिटिंग करने के लिए काफी संवेदनशील हो सकते हैं, देखें
GC Cawley और NLC टैलबोट, मॉडल चयन में ओवर-फिटिंग और प्रदर्शन मूल्यांकन में बाद के चयन पूर्वाग्रह, जर्नल ऑफ मशीन लर्निंग रिसर्च, 2010। रिसर्च, वॉल्यूम। 11, पीपी। 2079-2107, जुलाई 2010. ( पीडीएफ )
ध्यान दें कि यह समस्या कर्नेल विधियों के लिए अद्वितीय नहीं है, अधिकांश मशीन सीखने के तरीकों में समान समस्याएं हैं। एसवीएम में उपयोग किए जाने वाले काज हानि के कारण स्पार्सिटी होती है। हालांकि, अक्सर कर्नेल और नियमितीकरण मापदंडों का इष्टतम विकल्प का मतलब है कि आप सभी डेटा का समर्थन करने वाले वैक्टर हैं। यदि आप वास्तव में एक विरल कर्नेल मशीन चाहते हैं, तो ऐसी चीज़ का उपयोग करें, जो कि आउटसेट से विरल होने के लिए डिज़ाइन किया गया था (उपयोगी उपोत्पाद के बजाय), जैसे कि सूचनात्मक वेक्टर मशीन। वेक्टर वेक्टर सपोर्ट के लिए उपयोग की जाने वाली हानि फ़ंक्शन में एक स्पष्ट सांख्यिकीय अंतर्ग्रहण नहीं है, अक्सर समस्या के विशेषज्ञ ज्ञान को नुकसान फ़ंक्शन, जैसे कि पॉइसन या बीटा या गॉसियन में एन्कोड किया जा सकता है। इसी तरह कई वर्गीकरण समस्याओं में आप वास्तव में वर्ग सदस्यता की संभावना चाहते हैं,
इस बारे में मैं ऑफ-हैंड सोच सकता हूं।