शायद: खबरदार। जब आप कहते हैं कि 70% सटीकता (हालांकि आप इसे मापते हैं) आपके लिए काफी अच्छा है, तो ऐसा लगता है कि आप मान रहे हैं कि त्रुटियां बेतरतीब ढंग से या समान रूप से वितरित हैं।
लेकिन ओवरफिटिंग को देखने के तरीकों में से एक यह है कि ऐसा तब होता है जब एक मॉडल तकनीक (और इसकी प्रशिक्षण प्रक्रिया को प्रोत्साहित करती है) प्रशिक्षण सेट में quirks पर बहुत अधिक ध्यान दे रही है। सामान्य जनसंख्या जो इन quirks को साझा करते हैं उनमें अत्यधिक असंतुलित परिणाम हो सकते हैं।
तो शायद आप एक मॉडल के साथ समाप्त होते हैं जो कहता है कि सभी लाल कुत्तों को कैंसर है - क्योंकि आपके प्रशिक्षण डेटा में यह विशेष रूप से है। या कि 24 से 26 वर्ष के बीच के विवाहित लोग धोखाधड़ी बीमा दावों को दर्ज करने की गारंटी देते हैं। आपकी 70% सटीकता 100% गलत होने के लिए विषयों की जेब के लिए बहुत जगह छोड़ती है क्योंकि आपका मॉडल ओवरफिट है।
(ओवरफिट नहीं होना इस बात की गारंटी नहीं है कि आपके पास गलत भविष्यवाणियों की जेब नहीं होगी। वास्तव में एक अंडर-फिट मॉडल में खराब भविष्यवाणियों की कसम होगी, लेकिन ओवरफिटिंग से आपको पता चलता है कि आप अपने प्रशिक्षण डेटा में quirks के प्रभाव को बढ़ा रहे हैं। ।)