ट्रेन बनाम टेस्ट त्रुटि की तुलना करने के तरीके के बारे में वहाँ परस्पर विरोधी सलाह दी जा रही है, विशेषकर तब जब दोनों के बीच अंतर हो। मुझे लगता है कि संघर्ष के लिए विचार के दो स्कूल प्रतीत होते हैं। मैं समझने की कोशिश कर रहा हूं कि दोनों को कैसे मिलाया जाए (या समझें कि मैं यहां क्या याद कर रहा हूं)।
विचार # 1: अकेले ट्रेन और टेस्ट सेट के प्रदर्शन के बीच का अंतर ओवरफिटिंग को इंगित नहीं करता है
सबसे पहले, (यहां भी चर्चा की गई: प्रशिक्षण और परीक्षण त्रुटि की तुलना ओवरफिटिंग का संकेत कैसे हो सकती है? ), यह विचार कि ट्रेन और टेस्ट सेट के बीच का अंतर अकेले ओवरफिटिंग का संकेत नहीं दे सकता है। यह मेरे व्यावहारिक अनुभव से सहमत है, उदाहरण के लिए, पेड़ के तरीकों को इकट्ठा करता है, जहां क्रॉस-मान्यता आधारित हाइपर पैरामीटर ट्यूनिंग के बाद भी, ट्रेन और परीक्षण त्रुटि के बीच का अंतर कुछ बड़ा रह सकता है। लेकिन (मॉडल प्रकार की परवाह किए बिना) जब तक आप सत्यापन त्रुटि वापस नहीं जा रहे हैं, तब तक आप अच्छे हैं। कम से कम, यही सोच है।
विचार # 2: जब आप ट्रेन और परीक्षण प्रदर्शन के बीच अंतर देखते हैं: ऐसी चीजें करें जो ओवरफिटिंग का सामना करती हैं
हालाँकि, फिर सलाह है कि आप बहुत अच्छे स्रोतों से देखते हैं, जो सुझाव देते हैं कि ट्रेन और परीक्षण त्रुटि के बीच का अंतर ओवरफिटिंग का संकेत है। यहाँ एक उदाहरण है: एंड्रयू एनजी (एक शानदार बात) द्वारा "नट्स एंड बोल्ट्स ऑफ़ डीप लर्निंग" की चर्चा https://www.youtube.com/watch?v=F1ka6a13S9I जहां समय पर 48 स्टैम्प पर उसने एक फ्लो चार्ट बनाया यह कहता है कि "यदि आपकी ट्रेन सेट की त्रुटि कम है और आपकी ट्रेन-डी सेट की त्रुटि अधिक है, तो आपको नियमितीकरण जोड़ना चाहिए, अधिक डेटा प्राप्त करना चाहिए या मॉडल आर्किटेक्चर को बदलना चाहिए" ... ये सभी क्रियाएं हैं जिन्हें आप ओवरफिटिंग से निपटने के लिए कर सकते हैं।
जो मुझे लाता है ... : क्या मुझे यहाँ कुछ याद आ रहा है? क्या यह अंगूठे का एक मॉडल विशिष्ट नियम है (आमतौर पर सरल मॉडल ट्रेन और परीक्षण के बीच कम अंतर होता है)? या विचार के दो अलग-अलग स्कूल हैं?