एक 'कमजोर' शिक्षार्थी (क्लासफ़िश, प्रेडिक्टर, आदि) सिर्फ एक है जो अपेक्षाकृत खराब प्रदर्शन करता है - इसकी सटीकता मौका से ऊपर है, लेकिन सिर्फ मुश्किल से। वहाँ अक्सर है, लेकिन हमेशा नहीं, जोड़ा निहितार्थ है कि यह कम्प्यूटेशनल रूप से सरल है। कमजोर शिक्षार्थी यह भी बताता है कि एल्गोरिथ्म के कई उदाहरणों को "मजबूत" कलाकारों की टुकड़ी बनाने के लिए एक साथ (बूस्टिंग, बैगिंग आदि के माध्यम से) पूल किया जा रहा है।
इसका उल्लेख मूल AdaBoost पेपर फ्रायंड और शेपायर द्वारा किया गया है:
शायद इन अनुप्रयोगों में सबसे आश्चर्यजनक "बूस्टिंग" के लिए एक नए अनुप्रयोग की व्युत्पत्ति है, अर्थात, एक "कमजोर" पीएसी लर्निंग एल्गोरिदम को परिवर्तित करना जो मनमाने ढंग से उच्च सटीकता के साथ यादृच्छिक अनुमान लगाने की तुलना में बस थोड़ा बेहतर प्रदर्शन करता है। - (फ्रंड एंड शेपायर, 1995)
लेकिन मुझे लगता है कि यह वाक्यांश वास्तव में इससे भी पुराना है - मैंने 1980 के दशक से माइकल केर्न्स द्वारा एक शब्द पेपर (?) का उल्लेख किया है।
एक कमजोर शिक्षार्थी का क्लासिक उदाहरण एक निर्णय स्टंप है, एक स्तर का निर्णय वृक्ष (1 आर या वनआर एक और आमतौर पर इस्तेमाल किया जाने वाला कमजोर शिक्षार्थी है; यह काफी हद तक समान है)। एसवीएम को एक 'कमजोर शिक्षार्थी' कहना कुछ अजीब होगा, यहां तक कि ऐसी स्थितियों में भी जब यह खराब प्रदर्शन करता है, लेकिन एक एकल निर्णय लेने वाले को कमजोर शिक्षार्थी कहना भी पूरी तरह से उचित होगा, जब वह आश्चर्यजनक रूप से अच्छा प्रदर्शन करे।
Adaboost एक पुनरावृत्त एल्गोरिथ्म है और
आमतौर पर पुनरावृत्तियों या "राउंड" की संख्या को दर्शाता है। एल्गोरिथ्म डेटा पर एक कमजोर शिक्षार्थी को प्रशिक्षित / परीक्षण करके शुरू करता है, प्रत्येक उदाहरण को समान रूप से भारित करता है। जिन उदाहरणों को गलत तरीके से समझा जाता है वे अगले दौर (ओं) के लिए अपने वजन को बढ़ाते हैं, जबकि जो सही तरीके से वर्गीकृत किए जाते हैं उनका वजन कम हो जाता है।
टी
मुझे यकीन नहीं है कि बारे में कुछ भी जादुई है । 1995 के पेपर में, टी को एक मुफ्त पैरामीटर के रूप में दिया गया है (यानी, आप इसे स्वयं सेट करते हैं)।टी= 10टी