इस प्रश्न को इस बहुत अच्छी पोस्ट में संबोधित किया गया है। कृपया इस पर और इसके संदर्भों पर एक नज़र डालें। http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
लेख में ध्यान दें कि अंशांकन के बारे में बोलता है, और इसके बारे में एक और (अच्छा) ब्लॉग पोस्ट से लिंक करता है। फिर भी, मुझे पता चलता है कि बूस्टिंग से कैलिब्रेटेड प्रोबेबिलिटीज प्राप्त करने वाला पेपर आपको एक बेहतर समझ देता है कि बूस्टेड क्लासिफायर के संदर्भ में क्या अंशांकन है, और इसे करने के लिए मानक तरीके क्या हैं।
और अंत में एक पहलू गायब (थोड़ा और अधिक सैद्धांतिक)। RF और GBM दोनों अनुरुप विधियां हैं, जिसका अर्थ है कि आप बड़ी संख्या में छोटे क्लासिफायरियर का वर्गीकरण करते हैं। अब मूलभूत अंतर उपयोग की गई विधि पर है:
- आरएफ निर्णय वृक्षों का उपयोग करता है, जो बहुत अधिक संभावना वाले हैं। उच्च सटीकता प्राप्त करने के लिए, RF बैगिंग के आधार पर उनमें से एक बड़ी संख्या बनाने का निर्णय लेता है । मूल विचार यह है कि प्रत्येक नमूना को बार-बार डेटा को फिर से वर्गीकृत किया जाए और एक नया क्लासिफायर ट्रेन किया जाए। विभिन्न क्लासिफायर एक अलग तरीके से डेटा को ओवरफिट करते हैं, और मतदान के माध्यम से उन अंतरों को औसतन निकाल दिया जाता है।
- GBM एक बूस्टिंग तरीका है, जो कमजोर क्लासिफायर पर बनाता है । एक समय में एक क्लासिफायर जोड़ने का विचार है, ताकि अगले क्लासिफायरियर को पहले से प्रशिक्षित पहनावा सुधारने के लिए प्रशिक्षित किया जाए। ध्यान दें कि आरएफ के लिए प्रत्येक पुनरावृत्ति वर्गीकरण को बाकी हिस्सों से स्वतंत्र रूप से प्रशिक्षित किया जाता है।