मेरा मानना है कि उत्तर परिदृश्य पर निर्भर है।
एनएन (तंत्रिका नेटवर्क) को एक ऑपरेटर एफ के रूप में विचार करें, ताकि एफ (इनपुट) = आउटपुट । उस स्थिति में जहां यह संबंध रैखिक है, ताकि एफ (ए * इनपुट) = ए * आउटपुट , तो आप इनपुट या आउटपुट को उनके कच्चे रूपों में अप्राकृतिक रूप से छोड़ना चुन सकते हैं, या ए को खत्म करने के लिए दोनों को सामान्य कर सकते हैं। जाहिर तौर पर यह रैखिकता धारणा है। वर्गीकरण कार्यों में उल्लंघन किया जाता है, या लगभग कोई भी कार्य जो एक संभावना को आउटपुट करता है, जहां एफ (ए * इनपुट) = 1 * आउटपुट
व्यवहार में, सामान्यीकरण गैर-योग्य नेटवर्क को योग्य बनाने की अनुमति देता है, जो प्रयोगकर्ताओं / प्रोग्रामरों के लिए महत्वपूर्ण है। फिर भी, सामान्यीकरण का सटीक प्रभाव न केवल नेटवर्क आर्किटेक्चर / एल्गोरिथ्म पर निर्भर करेगा, बल्कि इनपुट और आउटपुट से पहले सांख्यिकीय पर भी निर्भर करेगा।
क्या अधिक है, एनएन को अक्सर ब्लैक-बॉक्स फैशन में बहुत कठिन समस्याओं को हल करने के लिए लागू किया जाता है, जिसका अर्थ है कि अंतर्निहित समस्या का बहुत खराब सांख्यिकीय सूत्रीकरण हो सकता है, जिससे सामान्यीकरण के प्रभाव का मूल्यांकन करना कठिन हो जाता है, जिससे तकनीकी लाभ (योग्य हो जाता है) आँकड़ों पर इसके प्रभाव पर हावी होने के लिए।
सांख्यिकीय अर्थों में, सामान्यीकरण भिन्नता को हटाता है जो माना जाता है कि आउटपुट की भविष्यवाणी करने में गैर-कारण है, इसलिए एनएन को इस भिन्नता को सीखने से रोकने के लिए एक भविष्यवक्ता के रूप में ( एनएन इस भिन्नता को नहीं देखता है, इसलिए इसका उपयोग नहीं कर सकता है )।