मुझे लगता है कि आपको तंत्रिका नेटवर्क की मूल बातें में भ्रम है। हर लेयर का एक अलग एक्टिवेशन फंक्शन और इनपुट / आउटपुट कनेक्शन वेट होता है।
पहली छिपी हुई परत के उत्पादन को एक वजन से गुणा किया जाएगा, जो अगली परत में एक सक्रियण फ़ंक्शन द्वारा संसाधित किया जाएगा और इसी तरह। सिंगल लेयर न्यूरल नेटवर्क सरल कार्यों के लिए बहुत सीमित हैं, गहरे एनएन एक परत की तुलना में बेहतर प्रदर्शन कर सकते हैं।
हालांकि, अगर आपके आवेदन काफी जटिल नहीं है, तो परत से अधिक का उपयोग न करें। अंत में, 100 न्यूरॉन्स परत का मतलब 10 परतों x 10 न्यूरॉन्स से बेहतर तंत्रिका नेटवर्क नहीं है, लेकिन 10 परतें कुछ काल्पनिक हैं जब तक कि आप गहन शिक्षा नहीं कर रहे हैं। छिपी हुई परत में 10 न्यूरॉन्स के साथ शुरू करें और अंतर देखने के लिए परतों को जोड़ने या एक ही परत में अधिक न्यूरॉन्स जोड़ने का प्रयास करें। अधिक परतों के साथ सीखना आसान होगा लेकिन अधिक प्रशिक्षण समय की आवश्यकता है।