बस @SubravetiSuraj (+1) के जवाब में थोड़ा जोड़ना
क्रॉस-मान्यता प्रदर्शन के एक निराशावादी पक्षपाती अनुमान देता है क्योंकि प्रशिक्षण सेट को बड़ा बनाने पर अधिकांश सांख्यिकीय मॉडल में सुधार होगा। इसका मतलब यह है कि के-फोल्ड क्रॉस-वैलिडेशन किसी डेटासेट के 100 * (के -1) / k% पर उपलब्ध मॉडल के प्रदर्शन का अनुमान लगाता है, बजाय इसके 100% पर। इसलिए यदि आप प्रदर्शन का अनुमान लगाने के लिए क्रॉस-वैलिडेशन करते हैं, और फिर परिचालन उपयोग के लिए सभी डेटा पर प्रशिक्षित मॉडल का उपयोग करते हैं, तो यह क्रॉस-वैलिडेशन अनुमान से थोड़ा बेहतर प्रदर्शन करेगा।
लीव-वन-आउट क्रॉस-सत्यापन लगभग निष्पक्ष है , क्योंकि प्रत्येक तह में उपयोग किए गए प्रशिक्षण सेट और पूरे डेटासेट के बीच आकार में अंतर केवल एक ही पैटर्न है। Luntz और Brailovsky (रूसी में) द्वारा इस पर एक पेपर है।
Luntz, Aleksandr, और विक्टर Brailovsky। "मान्यता की सांख्यिकीय प्रक्रिया में प्राप्त वर्णों के आकलन पर।" टेक्निस्काया कैबरनेटिका 3.6 (1969): 6-12।
यह भी देखें
विवेचक विश्लेषण पीटर ए। लचेंब्रुक और एम। रे। मिकी टेक्नोमेट्रिक्स वॉल्यूम में त्रुटि दर का अनुमान। 10, ईएस। 1,1968
हालाँकि, जब छुट्टी-एक-आउट क्रॉस-सत्यापन लगभग निष्पक्ष होता है, तो इसमें उच्च विचरण होता है (इसलिए यदि आप एक ही वितरण से डेटा के विभिन्न प्रारंभिक नमूनों के साथ अनुमान दोहराते हैं तो आपको बहुत अलग अनुमान मिलेंगे)। जैसा कि अनुमानक की त्रुटि पूर्वाग्रह और विचरण का एक संयोजन है, चाहे 10-गुना क्रॉस-सत्यापन से छुट्टी-एक-आउट क्रॉस-सत्यापन दोनों मात्राओं पर निर्भर करता है।
अब मॉडल को फिट करने में भिन्नता अधिक हो जाती है यदि इसे एक छोटे डेटासेट के लिए फिट किया जाता है (क्योंकि यह विशेष रूप से उपयोग किए गए प्रशिक्षण नमूने में किसी भी शोर / नमूना कलाकृतियों के लिए अधिक संवेदनशील है)। इसका मतलब है कि 10-गुना क्रॉस-वैलिडेशन में उच्च विचरण (साथ ही साथ एक उच्च पूर्वाग्रह) होने की संभावना है यदि आपके पास केवल सीमित मात्रा में डेटा है, क्योंकि प्रशिक्षण सेट का आकार एलओओसीवी से छोटा होगा। तो के-फोल्ड क्रॉस-वैरिफिकेशन में विचरण के मुद्दे भी हो सकते हैं, लेकिन एक अलग कारण से। यही कारण है कि डेटासेट का आकार छोटा होने पर LOOCV अक्सर बेहतर होता है।
हालांकि, मेरी राय में LOOCV का उपयोग करने का मुख्य कारण यह है कि कुछ मॉडलों (जैसे रैखिक प्रतिगमन, अधिकांश कर्नेल विधियां, निकटतम-पड़ोसी क्लासिफायर, आदि) के लिए यह कम्प्यूटेशनल रूप से सस्ता है, और जब तक कि डाटासेट बहुत छोटा नहीं था, मैं उपयोग करूंगा। यदि यह मेरे कम्प्यूटेशनल बजट, या बेहतर अभी भी, बूटस्ट्रैप आकलन और बैगिंग में फिट है, तो 10 गुना क्रॉस-सत्यापन।