पायथन के साथ फ्रांस्वा चोलट की डीप लर्निंग में यह कहा गया है:
परिणामस्वरूप, सत्यापन सेट पर इसके प्रदर्शन के आधार पर मॉडल के कॉन्फ़िगरेशन को ट्यूनिंग करने से सत्यापन सेट पर ओवरफिटिंग हो सकती है, भले ही आपका मॉडल उस पर सीधे प्रशिक्षित न हो।
इस घटना का केंद्र सूचना लीक की धारणा है। हर बार जब आप सत्यापन सेट पर मॉडल के प्रदर्शन के आधार पर अपने मॉडल के हाइपरपैरमीटर को ट्यून करते हैं, तो मॉडल में सत्यापन डेटा लीक के बारे में कुछ जानकारी । यदि आप ऐसा केवल एक बार, एक पैरामीटर के लिए करते हैं, तो बहुत कम जानकारी लीक होगी , और मॉडल का मूल्यांकन करने के लिए आपका सत्यापन सेट विश्वसनीय रहेगा। लेकिन अगर आप इसे कई बार दोहराते हैं - एक प्रयोग चल रहा है, सत्यापन सेट पर मूल्यांकन कर रहा है, और परिणामस्वरूप अपने मॉडल को संशोधित कर रहा है - तो आप मॉडल में सत्यापन सेट के बारे में जानकारी की एक महत्वपूर्ण मात्रा में रिसाव करेंगे।
यदि हाइपरपरमेटर्स ट्यूनिंग करते समय मैं सत्यापन डेटा पर मॉडल के प्रदर्शन का मूल्यांकन करता हूं तो सत्यापन डेटा के बारे में जानकारी क्यों लीक हुई है?