जहाँ तक मैंने देखा है, इस बारे में राय अलग-अलग है। सबसे अच्छा अभ्यास निश्चित रूप से क्रॉस-वैलिडेशन का उपयोग करके निर्देशित करेगा (विशेषकर यदि एक ही डेटासेट पर अन्य एल्गोरिदम के साथ आरएफ की तुलना करें)। दूसरी ओर, मूल स्रोत बताता है कि मॉडल प्रशिक्षण के दौरान ओओबी त्रुटि की गणना की जाती है, यह परीक्षण सेट प्रदर्शन के एक संकेतक के लिए पर्याप्त है। यहां तक कि ट्रेवर हस्ती, अपेक्षाकृत हाल की वार्ता में कहते हैं कि "रैंडम फ़ॉरेस्ट मुफ्त क्रॉस-मान्यता प्रदान करते हैं"। सहज रूप से, यह मेरे लिए समझ में आता है, अगर प्रशिक्षण और एक डेटासेट पर आरएफ-आधारित मॉडल को बेहतर बनाने की कोशिश कर रहा है।
क्या कोई यादृच्छिक जंगलों के साथ क्रॉस-वैलिडेशन की आवश्यकता के खिलाफ तर्क दे सकता है?