यदि आप डेटा की तुलना में कोई अन्य बाधा नहीं लगाते हैं, तो केवल पूर्वनिर्धारित सिस्टम को कम करके आंका जाता है। अपने उदाहरण के साथ चिपके हुए, 4-बिंदु बहुपद को 4 डेटा बिंदुओं पर फिट करने का मतलब है कि आपके पास डेटा द्वारा बाध्य नहीं की गई स्वतंत्रता की एक डिग्री है, जो आपको समान रूप से अच्छे समाधानों की एक पंक्ति (गुणांक स्थान) के साथ छोड़ देती है। हालांकि, आप समस्या को सुगम बनाने के लिए विभिन्न नियमितीकरण तकनीकों का उपयोग कर सकते हैं। उदाहरण के लिए, गुणांक के एल 2-मानदंड (यानी वर्गों का योग) पर जुर्माना लगाकर, आप यह सुनिश्चित करते हैं कि उच्चतम फिटनेस के साथ हमेशा एक अनूठा समाधान होता है।
तंत्रिका नेटवर्क के लिए नियमितीकरण तकनीक भी मौजूद है, इसलिए आपके प्रश्न का संक्षिप्त उत्तर 'हां, आप कर सकते हैं' है। विशेष रूप से रुचि "ड्रॉपआउट" नामक एक तकनीक है, जिसमें वजन के प्रत्येक अद्यतन के लिए, आप नेटवर्क से नोड्स के एक निश्चित सबसेट को बेतरतीब ढंग से 'ड्रॉप' करते हैं। अर्थात्, लर्निंग एल्गोरिदम के उस विशेष पुनरावृत्ति के लिए, आप इन नोड्स का दिखावा नहीं करते हैं। ड्रॉपआउट के बिना, नेट इनपुट के बहुत ही जटिल निरूपण को सीख सकता है जो कि सिर्फ एक साथ काम करने वाले सभी नोड्स पर निर्भर करता है। इस तरह के प्रतिनिधित्व सामान्य होने वाले पैटर्न खोजने के बजाय प्रशिक्षण डेटा को 'याद' करने की संभावना रखते हैं। ड्रॉपआउट सुनिश्चित करता है कि नेटवर्क प्रशिक्षण डेटा को फिट करने के लिए एक साथ सभी नोड्स का उपयोग नहीं कर सकता है; यह कुछ नोड्स के गुम होने पर भी डेटा का अच्छी तरह से प्रतिनिधित्व करने में सक्षम होना चाहिए,
यह भी ध्यान दें कि ड्रॉपआउट का उपयोग करते समय, प्रशिक्षण के दौरान किसी भी बिंदु पर स्वतंत्रता की डिग्री वास्तव में प्रशिक्षण नमूनों की संख्या से छोटी हो सकती है, भले ही कुल मिलाकर आप प्रशिक्षण नमूनों की तुलना में अधिक वजन सीख रहे हों।