छिपी हुई परतों का उपयोग करने के लिए उद्देश्य और निर्धारण


9

इस सवाल पर ...

मैं अपने शोध के लिए तंत्रिका नेटवर्क का उपयोग करने और बनाने का तरीका सीखने का प्रयास कर रहा हूं, और एक बिंदु मुझे कुछ हद तक बच रहा है। मुझे एहसास है कि छिपी हुई परतें इसका एक आवश्यक हिस्सा हैं, हालांकि मैं दो बिंदुओं पर अटका हुआ हूं जो मेरे संदर्भ मेरी संतुष्टि को नहीं समझा रहे हैं:

  1. छिपी हुई परत का सटीक उद्देश्य क्या है?
  2. कैसे निर्धारित करता है कि कितनी छिपी परतों का उपयोग करना है?

मैं जो इकट्ठा करता हूं, वह वास्तविक दुनिया की कार्यक्षमता को "मॉडल" करने के लिए है, लेकिन यदि संभव हो तो मैं एक स्पष्टीकरण का थोड़ा और अधिक चाहूंगा।


लेकिन कुछ समय मैं सामना करता हूं कि अगर आप छिपी हुई परतों को बढ़ाते हैं तो ओवरफिटिंग की समस्या आती है तो यह कहना बहुत मुश्किल है कि हम कितनी छिपी हुई परतों का उपयोग कर सकते हैं? यह हिट और परीक्षण विधि हो सकती है।

जवाबों:


9

नेटवर्क की अभिव्यक्ति को बढ़ाने के लिए एक छिपी हुई परत का उपयोग किया जाता है। यह नेटवर्क को छिपी हुई परत के बिना संभव से अधिक जटिल मॉडल का प्रतिनिधित्व करने की अनुमति देता है।

छिपी हुई परतों की संख्या को चुनना, या अधिक सामान्यतः अपने नेटवर्क आर्किटेक्चर को चुनना जिसमें छिपी हुई परतों में छिपी हुई इकाइयों की संख्या भी शामिल है, ऐसे निर्णय हैं जो आपके प्रशिक्षण और क्रॉस-मान्यता डेटा पर आधारित होने चाहिए। आपको नेटवर्क को एक निर्धारित मात्रा में नोड्स के साथ प्रशिक्षित करना चाहिए (शुरू करने के लिए, एक छिपी हुई परत की कोशिश करें, प्रति यूनिट एक इकाई के साथ) और मॉडल का परीक्षण करें।

अधिक मदद के लिए यह लिंक देखें: http://www.faqs.org/faqs/ai-faq/neural-nets/part3/section-10.html


1
यह लिंक काफी मददगार है
the_e

6

मुझे लगता है कि हम सरल फ़ीड-फॉरवर्ड न्यूरल नेट्स, यानी मल्टी-लेयर पर्सेप्ट्रॉन पर चर्चा कर रहे हैं।

  1. छिपी हुई परत आपके डेटा की विशेषताओं और आपके द्वारा भविष्यवाणी करने की कोशिश कर रहे चर के बीच गैर-रैखिक निर्भरता पर कब्जा करने के लिए आवश्यक है। यदि आप एक छिपी हुई परत का उपयोग नहीं करते हैं, तो आप रैखिक प्रतिगमन (प्रतिगमन के लिए) या लॉजिस्टिक प्रतिगमन (वर्गीकरण के लिए) का उपयोग कर सकते हैं।
  2. छिपी हुई परतों की विभिन्न संख्याओं की कोशिश करके और मूल्यांकन करते हैं कि वे कितनी अच्छी तरह काम करते हैं, उदाहरण के लिए क्रॉस-सत्यापन सेटिंग में। आमतौर पर, एक छिपी हुई परत पर्याप्त होगी और एनएन प्रदर्शन को इसके आकार और नियमितीकरण को अलग करके अनुकूलित किया जाता है।

ध्यान दें कि दो से अधिक छिपी हुई परतों के साथ, आप गहरी सीखने की भूमि में हैं और आपको अपने नेट को प्रशिक्षित करने के लिए कस्टम एल्गोरिदम की आवश्यकता है। इसका कारण यह है कि वेनिला बैकप्रॉपैजेशन गहरी जाल में "लुप्त ग्रेडिएंट" समस्या से ग्रस्त है: त्रुटि फ़ंक्शन की ढाल इनपुट के करीब परतों पर मर जाती है, और उन परतों को शायद ही प्रशिक्षित किया जाएगा।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.