" एप्लाइड प्रिडिक्टिव मॉडलिंग " की समीक्षा में एक समीक्षक कहता है :
एक समालोचना मेरे पास सांख्यिकीय शिक्षा (एसएल) शिक्षाशास्त्र है जो विभिन्न मॉडलिंग तकनीकों के मूल्यांकन में अभिकलन प्रदर्शन विचारों की अनुपस्थिति है। बूटस्ट्रैपिंग और क्रॉस-वेलिडेशन ऑन ट्यून / टेस्ट मॉडल के लिए इसके चरणों के साथ, एसएल काफी गणना-गहन है। उस री-सैंपलिंग में जोड़ें, जो बैगिंग और बूस्टिंग जैसी तकनीकों में अंतर्निहित है, और आपके पास बड़े डेटा सेटों की निगरानी सीखने के लिए कम्प्यूटेशन नर्क के दर्शक हैं। वास्तव में, आर की मेमोरी बाधाओं को मॉडल के आकार पर काफी गंभीर सीमाएं लगाती हैं जो यादृच्छिक जंगलों जैसे शीर्ष प्रदर्शन करने वाले तरीकों से फिट हो सकती हैं। यद्यपि SL छोटे डेटा सेटों के खिलाफ मॉडल प्रदर्शन को कैलिब्रेट करने के लिए एक अच्छा काम करता है, लेकिन यह निश्चित रूप से बड़े डेटा के लिए कम्प्यूटेशनल लागत बनाम प्रदर्शन को समझना अच्छा होगा।
आर की मेमोरी बाधाएं क्या हैं, और क्या वे उन मॉडलों के आकार पर गंभीर सीमाएं लगाते हैं जो यादृच्छिक जंगलों जैसे शीर्ष प्रदर्शन करने वाले तरीकों से फिट हो सकते हैं ?