जवाबों:
उनमें से इष्टतम संख्या को खोजने का कोई सीधा तरीका नहीं है: लोग अनुभवजन्य रूप से कोशिश करते हैं और देखते हैं (जैसे, क्रॉस-मान्यता का उपयोग करके)। सबसे आम खोज तकनीक यादृच्छिक, मैनुअल और ग्रिड खोजें हैं।
इसमें और अधिक उन्नत तकनीकें मौजूद हैं जैसे कि गॉसियन प्रक्रियाएं, जैसे डायलॉग एक्ट क्लासिफिकेशन , IEEE SLT 2016 के लिए गॉसियन प्रॉसेस के साथ न्यूरल नेटवर्क हाइपरपैरेटर्स को ऑप्टिमाइज़ करना ।
यादृच्छिक या संपूर्ण खोजों की तुलना में अधिक बुद्धिमान दृष्टिकोण के लिए, आप एक आनुवंशिक एल्गोरिथ्म की कोशिश कर सकते हैं जैसे कि NEAT http://nn.cs.utexas.edu/?neat । हालाँकि, इसकी वैश्विक ऑप्टिमा खोजने की कोई गारंटी नहीं है, यह केवल प्रदर्शन के आधार पर एक अनुकूलन एल्गोरिथ्म है और इसलिए यह स्थानीय ऑप्टिमा में फंसने की चपेट में है।
पेपर सेजेडी सी, वनहोक वी, आईऑफ़े एस, एट अल। कंप्यूटर दृष्टि [जे] के लिए स्थापना की स्थापना को पुनर्जीवित करना। arXiv प्रीप्रिंट arXiv: 1512.00567, 2015 कुछ सामान्य डिजाइन सिद्धांत देता है:
विशेष रूप से नेटवर्क में प्रतिनिधित्वात्मक बाधाओं से बचें;
नेटवर्क की चौड़ाई और गहराई को संतुलित करें। नेटवर्क के इष्टतम प्रदर्शन को प्रति चरण फिल्टर की संख्या और नेटवर्क की गहराई को संतुलित करके पहुँचा जा सकता है। नेटवर्क की चौड़ाई और गहराई दोनों बढ़ने से उच्च गुणवत्ता वाले नेटवर्क में योगदान हो सकता है। हालांकि, संगणना की एक निरंतर राशि के लिए इष्टतम सुधार तक पहुँचा जा सकता है अगर दोनों समानांतर में बढ़ाए जाते हैं। इसलिए कम्प्यूटेशनल बजट को नेटवर्क की गहराई और चौड़ाई के बीच संतुलित तरीके से वितरित किया जाना चाहिए।
ये सुझाव आपको एक नेटवर्क में अधिकतम न्यूरॉन्स की संख्या नहीं ला सकते हैं।
हालांकि, अभी भी कुछ मॉडल संपीड़न अनुसंधान जैसे हैं संरचित विरलता लर्निंग दीप तंत्रिका नेटवर्क के (एसएसएल) , SqueezeNet , छंटाई नेटवर्क है कि पर कुछ प्रकाश डाला सकता है कि कैसे एक परत प्रति न्यूरॉन्स के अनुकूलन के लिए।
विशेष रूप से डीप न्यूरल नेटवर्क्स की स्ट्रक्चर्ड स्पार्सिटी लर्निंग में , यह डीएनएनGroup Lasso
की संरचनाओं (यानी, फिल्टर, चैनल, फिल्टर शेप, और लेयर डेप्थ) को नियमित करने के लिए नुकसान फ़ंक्शन में एक नियमितीकरण शब्द जोड़ता है , जो कुछ घटकों को शून्य करने के लिए है (जैसे) शुद्ध संरचना का फिल्टर, चैनल, फिल्टर आकार और परत की गहराई), और नेटवर्क के एक उल्लेखनीय कॉम्पैक्ट और त्वरण को प्राप्त करता है, जबकि एक छोटे वर्गीकरण सटीकता हानि को बनाए रखता है।
आप जानते हैं कि जब आपके पास बहुत अधिक न्यूरॉन्स होते हैं, जब आप ओवर फिटिंग करते हैं। मतलब यह कि यह अच्छा काम नहीं कर रहा है क्योंकि एनएन सबसे सही मैच को सक्रिय करने की कोशिश कर रहा है जो असंभव है। परमाणुओं की समान मात्रा वाली दो अलग-अलग बिल्लियों की तरह, या कहने के लिए, यह एक डिटेक्टर एनएन है जो केवल आपको पालतू बिल्ली की तस्वीर पर सक्रिय करता है और कुछ नहीं। आप nn को सक्रिय करने के लिए एक व्यापक रेंज चाहते हैं। जैसे बिल्ली की किसी भी तस्वीर पर।
ओवरफिटिंग एक ऐसी समस्या है जिसका कोई वास्तविक त्वरित समाधान नहीं है। आप बहुत कम के साथ शुरू कर सकते हैं और फिर अधिक जोड़ सकते हैं। या बहुत से शुरू करें और तब तक उन्हें हटा दें जब तक यह सही काम न करे।