कुछ मशीन लर्निंग एल्गोरिदम में आम के रूप में, बूस्टिंग पेड़ों की संख्या के बारे में बाया-विचरण व्यापार-बंद के अधीन है। धीरे-धीरे बोलना, यह व्यापार बंद आपको बताता है कि: (i) कमजोर मॉडल उच्च पूर्वाग्रह और निम्न विचरण करते हैं: वे प्रशिक्षण डेटासेट में परिवर्तनशीलता को पकड़ने के लिए बहुत कठोर हैं, इसलिए या तो परीक्षण सेट (उच्च परीक्षण) में अच्छा प्रदर्शन नहीं करेंगे त्रुटि) (ii) बहुत मजबूत मॉडल में कम पूर्वाग्रह और उच्च विचरण होता है: वे बहुत लचीले होते हैं और वे प्रशिक्षण सेट को ओवरफिट करते हैं, इसलिए परीक्षण सेट में (जैसा कि डेटापॉंट प्रशिक्षण सेट से अलग होता है) वे भी अच्छा प्रदर्शन नहीं करेंगे। (उच्च परीक्षण त्रुटि)
बूस्टिंग पेड़ों की अवधारणा उथले पेड़ों (कमजोर मॉडल) के साथ शुरू करना है और अधिक उथले पेड़ों को जोड़ना है जो पिछले पेड़ों की कमजोरियों को ठीक करने की कोशिश करते हैं। जैसा कि आप इस प्रक्रिया को करते हैं, परीक्षण त्रुटि नीचे जाती है (क्योंकि समग्र मॉडल अधिक लचीला / शक्तिशाली हो जाता है)। हालाँकि, यदि आप उन बहुत से पेड़ों को जोड़ते हैं, तो आप प्रशिक्षण डेटा को ओवरफिट करना शुरू कर देते हैं और इसलिए परीक्षण त्रुटि बढ़ जाती है। क्रॉस-सत्यापन मिठाई स्थान को खोजने में मदद करता है