कृत्रिम तंत्रिका नेटवर्क भार (ANN) के MLE अनुमान निश्चित रूप से संभव हैं ; वास्तव में, यह पूरी तरह से विशिष्ट है। वर्गीकरण की समस्याओं के लिए, एक मानक उद्देश्य फ़ंक्शन क्रॉस-एन्ट्रॉपी है, जो एक द्विपद मॉडल के नकारात्मक लॉग-संभावना के समान है। प्रतिगमन समस्याओं के लिए, अवशिष्ट वर्ग त्रुटि का उपयोग किया जाता है, जो ओएलएस प्रतिगमन के MLE को समानता देता है।
लेकिन यह मानने में कुछ दिक्कतें हैं कि शास्त्रीय आंकड़ों में मौजूद MLE के अच्छे गुण MLE के तंत्रिका नेटवर्क के लिए भी मौजूद हैं।
एएनएन अनुमान के साथ एक सामान्य समस्या है: एकल-परत एएनएन के कई सममित समाधान भी हैं। छिपी हुई परत के लिए भार के संकेतों को उल्टा करना, और छिपी हुई परत के सक्रियण मापदंडों के संकेतों को उलट देना दोनों समान संभावना है। इसके अतिरिक्त, आप किसी भी छिपे हुए नोड्स की अनुमति दे सकते हैं और इन क्रमपरिवर्तन की भी समान संभावना है। यह परिणामी इन्सोफ़र है क्योंकि आपको स्वीकार करना चाहिए कि आप पहचान को छोड़ रहे हैं। हालाँकि, यदि पहचान महत्वपूर्ण नहीं है, तो आप बस स्वीकार कर सकते हैं कि ये वैकल्पिक समाधान सिर्फ एक दूसरे के प्रतिबिंब और / या क्रमपरिवर्तन हैं।
यह आंकड़ों के MLE के शास्त्रीय उपयोगों के विपरीत है, जैसे कि OLS प्रतिगमन: OLS समस्या उत्तल है, और कड़ाई से उत्तल होती है जब डिज़ाइन मैट्रिक्स पूर्ण रैंक होती है। मजबूत उत्तलता का तात्पर्य है कि एक एकल, अद्वितीय न्यूनतर है।
अप्रतिबंधित समाधान का उपयोग करने पर ANN डेटा को ओवरफिट करेगा। वज़न मूल से दूर बड़े पैमाने पर दौड़ लगाने के लिए होगा, जो सामान्य रूप से अच्छी तरह से सामान्य नहीं होता है या बहुत सटीकता के साथ नए डेटा की भविष्यवाणी करता है। वजन घटने या नियमित करने के अन्य तरीकों को अपनाने से वजन घटने का असर शून्य की ओर होता है। यह (1) से अनिश्चितता के मुद्दे को हल करने के लिए जरूरी नहीं है, लेकिन यह नेटवर्क के सामान्यीकरण में सुधार कर सकता है।
नुकसान फ़ंक्शन गैर-संवेदी है और अनुकूलन स्थानीय रूप से इष्टतम समाधान पा सकता है जो वैश्विक रूप से इष्टतम नहीं हैं । या शायद ये समाधान काठी बिंदु हैं, जहां कुछ अनुकूलन विधियाँ ठप हैं। इस पत्र के परिणामों से पता चलता है कि आधुनिक अनुमान विधियाँ इस मुद्दे को दरकिनार कर देती हैं।
एल1एल2