क्रॉस-वेलिडेशन के बाद हमेशा पूर्ण डेटासेट के साथ प्रशिक्षित करना एक अच्छा विचार है ? इसे दूसरे तरीके से डालें, क्या मेरे डेटासेट के सभी नमूनों के साथ प्रशिक्षण लेना ठीक है और यह जांचने में सक्षम नहीं है कि क्या यह विशेष फिटिंग ओवरफिट है ?
समस्या पर कुछ पृष्ठभूमि:
कहो कि मैं मॉडल का एक परिवार है जो द्वारा । यह भी कहें कि मेरे पास डेटा बिंदुओं का एक सेट है और मैं उस मॉडल को चुनने के लिए के-फोल्ड क्रॉस-मान्यता के साथ मॉडल का चयन करता हूं जो डेटा को सामान्य करता है। एन
मॉडल चयन के लिए, मैं प्रत्येक उम्मीदवार के लिए k- गुना क्रॉस-सत्यापन चलाकर, उदाहरण के लिए, पर एक खोज (जैसे एक ग्रिड खोज) कर सकता हूं । क्रॉस-सत्यापन में प्रत्येक तह में, मैं सीखे हुए मॉडल साथ समाप्त होता हूं । βα
क्रॉस-वैलिडेशन की बात यह है कि इनमें से प्रत्येक तह के लिए मैं जांच सकता हूं कि क्या सीखा मॉडल ओवरफिट था, इसे "अनदेखी डेटा" पर परीक्षण करके। परिणामों के आधार पर, मैं मॉडल को चुन सकता था जो कि पैरामीटर लिए सीखा गया था जो ग्रिड खोज में क्रॉस सत्यापन के दौरान सामान्यीकृत होता है।→ α सबसे अच्छा
अब, का कहना है कि मॉडल चयन के बाद , मैं उपयोग करना चाहते हैं सब मेरी डेटासेट में अंक और उम्मीद है कि एक बेहतर मॉडल सीखते हैं। इसके लिए मैं उस मॉडल के अनुरूप पैरामीटर उपयोग कर सकता हूं, जिसे मैंने मॉडल चयन के दौरान चुना था, और फिर संपूर्ण डेटासेट पर प्रशिक्षण के बाद, मुझे एक नया सीखा मॉडल । समस्या यह है कि, अगर मैं प्रशिक्षण के लिए अपने डेटासेट में सभी बिंदुओं का उपयोग करें, है मैं जांच नहीं कर सकता है, तो इस नए सीखा मॉडल overfits किसी भी अनदेखी डेटा पर। इस समस्या के बारे में सोचने का सही तरीका क्या है?→ अल्फा ख ई एस टी β च यू एल एल β च यू एल एल