गिरी हुई विधियों का उपयोग पर्यवेक्षित और अनुपयोगी समस्याओं के लिए किया जा सकता है। प्रसिद्ध उदाहरण क्रमशः वेक्टर मशीन और कर्नेल स्पेक्ट्रल क्लस्टरिंग हैं।
कर्नेल विधियाँ एक परिवर्तित सुविधा स्थान में रेखीय एल्गोरिथ्म का उपयोग करने के लिए एक संरचित तरीका प्रदान करती हैं, जिसके लिए परिवर्तन आम तौर पर अरेखीय (और उच्च आयामी स्थान पर) होता है। इस तथाकथित कर्नेल ट्रिक का मुख्य लाभ यह है कि nonlinear पैटर्न उचित कम्प्यूटेशनल लागत पर पाया जा सकता है ।
ध्यान दें कि मैंने कहा कि कम्प्यूटेशनल लागत उचित है, लेकिन नगण्य नहीं है। कर्नेल विधियाँ आमतौर पर कर्नेल मैट्रिक्स साथ की संख्या में प्रशिक्षण इंस्टेंसेस का निर्माण करती हैं। इसलिए कर्नेल विधियों की जटिलता इनपुट आयामों की संख्या के बजाय प्रशिक्षण उदाहरणों की संख्या का एक फ़ंक्शन है। समर्थन वेक्टर मशीनें, उदाहरण के लिए, और बीच एक प्रशिक्षण जटिलता है । बहुत बड़े साथ समस्याओं के लिए , यह जटिलता वर्तमान में निषेधात्मक है।K∈RN×NNO(N2)O(N3)N
आयामों की संख्या बड़ी होने और नमूनों की संख्या अपेक्षाकृत कम होने (जैसे, 1 मिलियन से कम) होने पर यह कर्नेल विधियों को एक कम्प्यूटेशनल परिप्रेक्ष्य से बहुत दिलचस्प बनाता है।
संबंधित: रैखिक कर्नेल और गैर-रेखीय कर्नेल समर्थन वेक्टर मशीन के लिए?
बड़े पैमाने पर समस्याओं के लिए एसवीएम
के लिए बहुत तरह के रूप में उच्च आयामी समस्याओं, 10000
आयाम हैं कि विवादित उल्लेख, वहां अक्सर एक उच्च आयामी सुविधा अंतरिक्ष को मैप करने की कोई जरूरत नहीं है। इनपुट स्पेस पहले से ही काफी अच्छा है। ऐसी समस्याओं के लिए, रैखिक विधियाँ लगभग समान पूर्वानुमान वाले प्रदर्शन के साथ तेजी से परिमाण के आदेश हैं । इन विधियों के उदाहरण LIBLINEAR या Vowpal Wabbit में देखे जा सकते हैं ।
जब आप एक उच्च आयामी इनपुट स्थान में कई नमूने हैं, तो रैखिक तरीके विशेष रूप से दिलचस्प हैं। जब आपके पास केवल नमूने होंगे, तो नॉनलाइन कर्नेल विधि का उपयोग करना भी सस्ता होगा (चूंकि छोटा है)। यदि आपने कहा था, तो आयामों में नमूने , कर्नेल विधियाँ प्रभावी होंगी।500N5.000.00010.000
कई प्रशिक्षण उदाहरणों (तथाकथित बड़ी छोटी समस्याओं) के साथ कम आयामी समस्याओं के लिए , रैखिक विधियां खराब पूर्वानुमान सटीकता प्राप्त कर सकती हैं। इस तरह की समस्याओं के लिए, एसेम्बल वीवीएम जैसे एनसेम्बल विधियां मानक एमएम की तुलना में काफी कम कम्प्यूटेशनल लागत पर बिनालाइन निर्णय सीमा प्रदान करती हैं।Np
RBF
कर्नेल का उपयोग करता हूं, तोlibsvm
यह हमेशा ओवरफिटिंग होता है, क्लासिफायर परीक्षण सेट में एक उच्च सटीकता लेकिन कम सटीकता प्राप्त करता है। और यदि मैं क्लासिफायर से पहले आयाम में कमी करता हूं, और कम किया गया आयाम प्रशिक्षण नमूनों की संख्या के करीब है, तो वर्गीकरण शायद परीक्षण और परीक्षण सेट के बीच एक अच्छा लाभ प्राप्त करता है। क्या परिणाम सबसे अनुभवजन्य परिणाम फिट बैठता है? धन्यवाद।