अफसोस की बात है कि एक समस्या का वर्णन करने के लिए एक न्यूरल नेटवर्क के लिए सबसे अच्छी संख्या में न्यूरॉन्स और परतों की संख्या को प्राथमिकता देने का कोई सामान्य तरीका नहीं है । शुरुआती बिंदु के रूप में प्रयास करने के लिए अच्छे मूल्यों का निर्धारण करने के लिए बहुत अधिक मार्गदर्शन नहीं है।
सबसे आम दृष्टिकोण समान समस्याओं पर उपयोग किए जाने वाले नेटवर्क के बारे में पूर्व अनुभव के आधार पर एक मोटे अनुमान के साथ शुरू होता है। यह आपका अपना अनुभव हो सकता है, या दूसरे / तीसरे हाथ का अनुभव जो आपने प्रशिक्षण पाठ्यक्रम, ब्लॉग या शोध पत्र से उठाया है। फिर कुछ बदलावों की कोशिश करें, और सबसे अच्छा एक लेने से पहले प्रदर्शन को ध्यान से देखें।
तंत्रिका नेटवर्क का आकार और गहराई अन्य हाइपर-पैरामैटर्स के साथ भी बातचीत करती है, ताकि एक चीज़ को कहीं और बदलने से यह प्रभावित हो सके कि सबसे अच्छे मूल्य कहाँ हैं। तो एक नेटवर्क के लिए "सर्वोत्तम" आकार और गहराई को अलग करना संभव नहीं है फिर अलगाव में अन्य मापदंडों को ट्यून करना जारी रखें। उदाहरण के लिए, यदि आपके पास बहुत गहरा नेटवर्क है, तो यह ReLU सक्रियण फ़ंक्शन के साथ कुशलता से काम कर सकता है, लेकिन सिग्मोइड के साथ इतनी अच्छी तरह से नहीं - यदि आपको नेटवर्क का सबसे अच्छा आकार / आकार मिला और फिर अलग-अलग सक्रियण कार्यों के साथ एक प्रयोग करने की कोशिश की जा सकती है सबसे अच्छा काम करने के बारे में गलत निष्कर्ष।
आप कभी-कभी "अंगूठे के नियम" के बारे में पढ़ सकते हैं जो शोधकर्ताओं ने खरोंच से एक तंत्रिका नेटवर्क डिजाइन शुरू करते समय उपयोग किया है। ये चीजें आपकी समस्याओं के लिए काम कर सकती हैं या नहीं, लेकिन उन्हें कम से कम समस्या पर एक शुरुआत करने का फायदा है। मैंने जिन विविधताओं को देखा है वे हैं:
छिपी हुई परतों के साथ एक नेटवर्क बनाएं इनपुट के समान आकार के आदेश, और सभी समान आकार, इस आधार पर कि आकार को अलग करने का कोई विशेष कारण नहीं है (जब तक कि आप शायद एक ऑटोकेनोडर नहीं बना रहे हैं)।
सरल शुरू करें और एक सरल नेटवर्क को बेहतर बनाने के लिए जटिलता का निर्माण करें।
यदि आप आउटपुट को इनपुट डेटा द्वारा अच्छी तरह से समझाए जाने की अपेक्षा करते हैं, तो नेटवर्क की अलग-अलग गहराइयों को आज़माएं, लेकिन एक जटिल रिश्ते के रूप में (केवल स्वाभाविक शोर के विपरीत)।
कुछ ड्रॉपआउट को जोड़ने का प्रयास करें, यह निकटतम चीज है तंत्रिका नेटवर्क को जादुई परी धूल होती है जो सब कुछ बेहतर बनाती है (चेतावनी: ड्रॉपआउट जोड़ना सामान्यीकरण में सुधार कर सकता है, लेकिन आवश्यक परत आकार और प्रशिक्षण समय भी बढ़ा सकता है)।
यदि आप किसी पाठ में इन्हें या इनके जैसे कुछ भी पढ़ते हैं, तो इन्हें एक चुटकी नमक के साथ लें। हालांकि, कम से कम वे आपको खाली पृष्ठ प्रभाव से बाहर निकलने में मदद करते हैं, और किसी प्रकार का नेटवर्क लिखते हैं, और आपको परीक्षण और शोधन प्रक्रिया शुरू करने के लिए मिलता है।
एक तरफ के रूप में, एक तंत्रिका नेटवर्क को ट्यूनिंग में बहुत अधिक खो जाने की कोशिश न करें जब कुछ अन्य दृष्टिकोण बेहतर हो सकते हैं और आपको बहुत समय बचा सकते हैं। अन्य मशीन लर्निंग और डेटा साइंस दृष्टिकोणों पर विचार करें और उनका उपयोग करें। डेटा का अन्वेषण करें, हो सकता है कि कुछ प्लॉट बनाए जाएं। अपनी समस्या के आधार पर मानदंड, रैखिक प्रतिगमन, लॉजिस्टिक प्रतिगमन या सॉफ्टमैक्स प्रतिगमन को बेंचमार्क प्राप्त करने के लिए पहले कुछ सरल रैखिक दृष्टिकोणों का प्रयास करें। एनएन के लिए एक अलग एमएल एल्गोरिदम का उपयोग करने पर विचार करें - निर्णय ट्री आधारित दृष्टिकोण जैसे कि एक्सजीबोस्ट कई समस्याओं के लिए गहन सीखने की तुलना में अधिक तेज और प्रभावी हो सकता है।