एसवीएम में नियमितीकरण पैरामीटर के लिए अंतर्ज्ञान


11

एक एसवीएम में नियमितीकरण पैरामीटर को अलग करने से गैर-विभाजक डेटासेट के लिए निर्णय सीमा कैसे बदल जाती है? सीमित व्यवहार (बड़े और छोटे नियमितीकरण के लिए) पर एक दृश्य उत्तर और / या कुछ टिप्पणी बहुत सहायक होगी।

जवाबों:


17

नियमितीकरण पैरामीटर (लैम्ब्डा) एक महत्व की डिग्री के रूप में कार्य करता है जो मिस-वर्गीकरण के लिए दिया जाता है। एसवीएम एक द्विघात अनुकूलन समस्या पैदा करता है जो दोनों वर्गों के बीच मार्जिन को अधिकतम करने और मिस-वर्गीकरण की मात्रा को कम करने के लिए दिखता है। हालांकि, गैर-अलग-अलग समस्याओं के लिए, एक समाधान खोजने के लिए, मिस-वर्गीकरण की बाधा को शांत किया जाना चाहिए, और यह उल्लेख "नियमितीकरण" को निर्धारित करके किया जाता है।

तो, सहज रूप से, के रूप में भेड़ का बच्चा बड़ा हो जाता है कम गलत तरीके से वर्गीकृत उदाहरणों की अनुमति दी जाती है (या नुकसान में सबसे अधिक कीमत का भुगतान)। फिर जब लांबड़ा अनंत को जाता है, तो समाधान हार्ड-मार्जिन (बिना किसी मिस-वर्गीकरण की अनुमति देता है)। जब लैंबडा 0 (बिना 0) होता है, तो मिस-क्लासिफिकेशन की अनुमति अधिक होती है।

इन दोनों और सामान्य रूप से छोटे लैम्ब्डा के बीच निश्चित रूप से एक व्यापार है, लेकिन बहुत छोटा नहीं है, सामान्य रूप से अच्छी तरह से। नीचे रैखिक SVM वर्गीकरण (बाइनरी) के लिए तीन उदाहरण दिए गए हैं।

रैखिक एसवीएम लैंबडा = 0.1 रैखिक एसवीएम लैंबडा = 1 यहाँ छवि विवरण दर्ज करें

गैर-रैखिक-कर्नेल एसवीएम के लिए विचार समान है। यह देखते हुए, लैम्ब्डा के उच्च मूल्यों के लिए ओवरफिटिंग की अधिक संभावना है, जबकि लैम्ब्डा के कम मूल्यों के लिए अंडरफिटिंग की अधिक संभावना है।

नीचे दिए गए चित्र आरबीएफ कर्नेल के लिए व्यवहार को दर्शाते हैं, जो सिग्मा पैरामीटर को 1 पर तय करते हैं और लैम्बडा = 0.01 और लैम्ब्डा = 10 को आज़माते हैं।

आरबीएफ कर्नेल एसवीएम लंबा = 0.01 आरबीएफ कर्नेल एसवीएम लैम्बडा = 10

आप कह सकते हैं कि पहला आंकड़ा जहां लंबोदा कम है, दूसरे आंकड़े की तुलना में अधिक "आराम" है जहां डेटा को अधिक सटीक रूप से फिट करने का इरादा है।

(प्रो। ओरोल पुजोल से स्लाइड्स। यूनिवर्सिटैट डे बार्सिलोना)


अच्छी तस्वीरें! क्या आपने उन्हें खुद बनाया? यदि हाँ, तो शायद आप उन्हें आरेखण के लिए कोड साझा कर सकते हैं?
एलेक्सी ग्रिगोरेव

अच्छा ग्राफिक्स। पाठ से अंतिम दो => के बारे में एक व्यक्ति को लगता है कि पहली तस्वीर लैम्ब्डा = 0.01 के साथ एक है, लेकिन मेरी समझ से (और शुरुआत में ग्राफ के अनुरूप होना) यह लैम्ब्डा के साथ एक है = 10. क्योंकि यह स्पष्ट रूप से कम से कम नियमितीकरण (सबसे अधिक आराम, सबसे अधिक आराम) वाला है।
विम 'टाइटे' थेल्स

^ मेरी भी यही समझ है। दो रंगीन ग्राफ़ के शीर्ष डेटा के आकार के लिए अधिक स्पष्ट रूप से दिखाते हैं, इसलिए वह ग्राफ़ होना चाहिए जहां SVM समीकरण का मार्जिन उच्च लंबोदर के साथ इष्ट था। दो रंग रेखांकन के नीचे डेटा का एक और अधिक आराम से वर्गीकरण (नारंगी क्षेत्र में नीले रंग का छोटा क्लस्टर) दर्शाता है, जिसका अर्थ है कि वर्गीकरण में त्रुटि की मात्रा को कम करने के लिए मार्जिन अधिकतमकरण का पक्ष नहीं लिया गया।
ब्रायन अंबेली
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.