हमेशा सदृश सीखने का उपयोग क्यों न करें?


13

यह मुझे लगता है कि सीखना सीखना हमेशा एक एकल सीखने की परिकल्पना की तुलना में बेहतर भविष्य कहनेवाला प्रदर्शन देना होगा।

तो, हम हर समय उनका उपयोग क्यों नहीं करते हैं?

मेरा अनुमान शायद, कम्प्यूटेशनल सीमाओं के कारण है? (फिर भी, हम कमजोर भविष्यवक्ताओं का उपयोग करते हैं, इसलिए मुझे नहीं पता)।


2
क्योंकि पहनावा सीखना हमेशा बेहतर प्रदर्शन नहीं देता है। बैगिंग और बूस्टिंग दोनों कुछ मामलों में काम करते हैं, लेकिन दूसरों में प्रदर्शन को बुरी तरह से कम कर सकते हैं।
मार्क क्लेसेन

जवाबों:


12

सामान्य तौर पर यह सच नहीं है कि यह हमेशा बेहतर प्रदर्शन करेगा। कई कलाकारों के तरीके हैं, जिनमें से प्रत्येक के अपने फायदे / कमजोरियाँ हैं। कौन सा उपयोग करना है और फिर हाथ में समस्या पर निर्भर करता है।

उदाहरण के लिए, यदि आपके पास उच्च विचरण वाले मॉडल हैं (वे आपके डेटा को ओवर-फिट करते हैं), तो आपको बैगिंग का उपयोग करने से लाभ होने की संभावना है। यदि आपके पास पक्षपाती मॉडल हैं, तो उन्हें बूस्टिंग के साथ उपयोग करना बेहतर है। पहनावा बनाने के लिए अलग-अलग रणनीतियाँ भी होती हैं। विषय सिर्फ एक उत्तर में इसे कवर करने के लिए बहुत व्यापक है।

लेकिन मेरी बात है: अगर आप अपनी सेटिंग के लिए गलत कलाकारों की टुकड़ी विधि का उपयोग करें, तो आप कर रहे हैं नहीं बेहतर करने के लिए जा रहा है। उदाहरण के लिए, पक्षपाती मॉडल के साथ बैगिंग का उपयोग करने से मदद नहीं मिलेगी।

इसके अलावा, यदि आपको एक संभाव्य सेटिंग में काम करने की आवश्यकता है, तो पहनावे के तरीके भी काम नहीं कर सकते हैं। यह ज्ञात है कि बूस्टिंग (AdaBoost जैसे इसके सबसे लोकप्रिय रूपों में) खराब संभावना अनुमान लगाता है। यही है, यदि आप एक मॉडल रखना चाहते हैं जो आपको अपने डेटा के बारे में तर्क करने की अनुमति देता है, न केवल वर्गीकरण, आप एक ग्राफिकल मॉडल के साथ बेहतर हो सकते हैं।


एक निर्णय स्टंप पक्षपाती है, लेकिन उनका उपयोग बैगिंग के साथ सफलतापूर्वक किया गया है।

हाँ, लेकिन पहनावा अभी भी पक्षपाती है। क्या होगा अगर पूर्वाग्रह वास्तव में एक मुद्दा है ?. इसे ठीक करने में मदद नहीं मिलेगी। क्या आप उस मामले का संदर्भ जोड़ सकते हैं जिसका आप उल्लेख करते हैं?
jpmuc
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.