बूस्टिंग को समझने का सबसे आसान तरीका क्या है?
यह बहुत कमज़ोर क्लासिफ़ायर "अनन्तता" (पूर्णता) को बढ़ावा क्यों नहीं देता है?
बूस्टिंग को समझने का सबसे आसान तरीका क्या है?
यह बहुत कमज़ोर क्लासिफ़ायर "अनन्तता" (पूर्णता) को बढ़ावा क्यों नहीं देता है?
जवाबों:
सादे अंग्रेजी में: यदि आपका क्लासिफायर कुछ डेटा को मिसकॉलिफाई करता है, तो मुख्य रूप से इस मिसकॉलिफाइड हिस्से पर उसकी एक और कॉपी प्रशिक्षित करें, इस उम्मीद के साथ कि वह कुछ सूक्ष्म खोजेगा। और फिर, हमेशा की तरह, पुनरावृति। रास्ते में कुछ वोटिंग योजनाएं हैं जो उन सभी क्लासिफायर की भविष्यवाणियों को समझदार तरीके से संयोजित करने की अनुमति देती हैं।
क्योंकि कभी-कभी यह असंभव है (शोर सिर्फ कुछ जानकारी छिपा रहा है, या यह डेटा में भी मौजूद नहीं है); दूसरी ओर, बहुत अधिक बढ़ावा देने से ओवरफिटिंग हो सकती है।
बढ़ाने सीखने दर पैरामीटर है, जो, के साथ मिलकर के माध्यम से दबाव को रोजगार कश्मीर पार सत्यापन गुना, "आउट-ऑफ-बैग" (OOB) भविष्यवाणियों या स्वतंत्र परीक्षण सेट, पेड़ों की नंबर एक कलाकारों की टुकड़ी में रखना चाहिए निर्धारण करते हैं।
हम एक मॉडल चाहते हैं जो धीरे-धीरे सीखता है, इसलिए प्रत्येक व्यक्तिगत मॉडल की जटिलता और शामिल करने के लिए मॉडल की संख्या के मामले में एक व्यापार बंद है। मैंने जो मार्गदर्शन किया है वह बताता है कि आपको सीखने की दर कम से कम संभव रूप से निर्धारित करनी चाहिए (गणना समय और भंडारण स्थान की आवश्यकताओं को देखते हुए), जबकि प्रत्येक पेड़ की जटिलता को इस आधार पर चुना जाना चाहिए कि क्या बातचीत की अनुमति है, और किस डिग्री तक, पेड़ जितना अधिक जटिल होगा, उतने ही जटिल अंतर्क्रियाओं का प्रतिनिधित्व किया जा सकता है।
सीखने की दर को सीमा में चुना गया है । छोटे मूल्य ( ) को प्राथमिकता दी। यह प्रत्येक वेटिंग है जो प्रत्येक मॉडल पर फिट किए गए मूल्यों में प्रत्येक मॉडल के योगदान को कम करने के लिए लगाया जाता है।
k -fold CV (या OOB भविष्यवाणियों या स्वतंत्र परीक्षण सेट) का उपयोग यह तय करने के लिए किया जाता है कि जब बढ़ाया मॉडल ओवरफिट होना शुरू हो गया है। अनिवार्य रूप से यह ऐसा है जो हमें आदर्श मॉडल को बढ़ावा देना बंद कर देता है, लेकिन धीरे-धीरे सीखना बेहतर है, इसलिए हमारे पास फिट किए गए मॉडल में योगदान करने वाले मॉडल का एक बड़ा पहनावा है।