ग्रैडिएंट बूस्टिंग के बारे में सीखते हुए, मैंने किसी "कमजोर क्लासिफायरियर" के गुणों के बारे में किसी भी बाधा के बारे में नहीं सुना है जो कि मॉडल का निर्माण करने और कलाकारों की टुकड़ी का उपयोग करता है। हालांकि, मैं एक जीबी के आवेदन की कल्पना नहीं कर सकता था जो रैखिक प्रतिगमन का उपयोग करता है, और वास्तव में जब मैंने कुछ परीक्षण किए हैं - यह काम नहीं करता है। मैं चुकता अवशिष्ट के योग की एक ढाल के साथ सबसे मानक दृष्टिकोण का परीक्षण कर रहा था और बाद के मॉडल को एक साथ जोड़ रहा था।
स्पष्ट समस्या यह है कि पहले मॉडल के अवशेषों को इस तरह से आबाद किया गया है कि अब फिट होने के लिए कोई प्रतिगमन रेखा नहीं है। मेरा एक और अवलोकन यह है कि बाद के रैखिक प्रतिगमन मॉडल की राशि को एकल प्रतिगमन मॉडल के रूप में अच्छी तरह से प्रस्तुत किया जा सकता है (सभी अवरोधों और इसी गुणांक को जोड़ते हुए) इसलिए मैं कल्पना नहीं कर सकता कि कैसे कभी मॉडल में सुधार हो सकता है। अंतिम अवलोकन यह है कि एक रेखीय प्रतिगमन (सबसे विशिष्ट दृष्टिकोण) एक नुकसान फ़ंक्शन के रूप में चुकता अवशिष्ट के योग का उपयोग कर रहा है - वही जो जीबी उपयोग कर रहा है।
मैंने सीखने की दर को कम करने या प्रत्येक पुनरावृत्ति के लिए केवल भविष्यवाणियों के एक सबसेट का उपयोग करने के बारे में सोचा, लेकिन यह अभी भी अंततः एकल मॉडल प्रतिनिधित्व तक अभिव्यक्त किया जा सकता है, इसलिए मुझे लगता है कि यह कोई सुधार नहीं लाएगा।
मुझे यहां क्या समझ नहीं आ रहा है? क्या लीनियर रिग्रेशन किसी तरह ग्रैडिएंट बूस्टिंग के साथ उपयोग करना अनुचित है? क्या यह इसलिए है क्योंकि रैखिक प्रतिगमन एक हानि फ़ंक्शन के रूप में चुकता अवशिष्टों के योग का उपयोग करता है? क्या कमजोर भविष्यवक्ताओं पर कोई विशेष अड़चन है ताकि उन्हें ग्रैडिएंट बूस्टिंग पर लागू किया जा सके?