एक गहरा तंत्रिका नेटवर्क अन्य तंत्रिका नेटवर्क से कैसे अलग है?


जवाबों:


28

अंतर ज्यादातर परतों की संख्या में है।

लंबे समय तक, यह माना जाता था कि "1-2 छिपी हुई परतें अधिकांश कार्यों के लिए पर्याप्त हैं" और इससे अधिक का उपयोग करना अव्यावहारिक था, क्योंकि तंत्रिका नेटवर्क का प्रशिक्षण बहुत कम्प्यूटेशनल रूप से मांग हो सकता है।

आजकल, कंप्यूटर बहुत अधिक सक्षम हैं, इसलिए लोगों ने अधिक परतों वाले नेटवर्क का उपयोग करना शुरू कर दिया है और पाया है कि वे कुछ कार्यों के लिए बहुत अच्छी तरह से काम करते हैं।

शब्द "डीप" है, बस इन नेटवर्कों को पारंपरिक, "अधिक उथले" से अलग करना है।


अगर मैं "गहरी सीख" को सही तरीके से समझ गया हूं, तो कुछ पैरामीटर (वज़न) हैं जो एक साथ बंधे हैं, इस प्रकार पैरामीटर स्पेस को कम करते हैं। सामान्य NN ऐसा नहीं कर सकते।
राफेल

@ राफेल, फिर से some parameters (weights) that are tied together, thus reducing the parameter space, क्या आपका मतलब है कंफ्यूजनल न्यूरल नेटवर्क?
publicgk

@publicgk मैंने वही देखा, हाँ।
राफेल

मैंने हमेशा "डीप लर्निंग" सुना है जब आप बहुत बड़े डेटासेट का उपयोग करते हैं। क्या यह गलती है और डेटा का आकार कोई फर्क नहीं पड़ता - या क्या लोग विशाल डेटा सेट के साथ गहन शिक्षण से जुड़े हैं क्योंकि प्रशिक्षण के लिए यही आवश्यक है।
स्टीवन सगोना

मैं यह बताना चाहता हूं कि यह "विश्वास" कि केवल 1 छिपी हुई परत के साथ एक तंत्रिका नेटवर्क किसी भी फ़ंक्शन की गणना कर सकता है वास्तव में सिद्ध है (उदाहरण के लिए neuralnetworksanddeeplearning.com/chap4.html )। मुझे लगता है कि आपको थोड़ा और समझाया जाना चाहिए था कि 1 से अधिक छिपी हुई परत फिर "सुविधाजनक" क्यों है।
nbro

9

एक गहरी तंत्रिका नेटवर्क कई परतों के साथ सिर्फ एक (फ़ीड-आगे) तंत्रिका नेटवर्क है।

हालाँकि, गहरी विश्वास नेटवर्क, डीप बोल्ट्ज़मैन नेटवर्क, आदि को (डिबेटेबल) गहरे तंत्रिका नेटवर्क नहीं माना जाता है, क्योंकि उनकी टोपोलॉजी अलग है (वे अपने टोपोलॉजी में अप्रत्यक्ष नेटवर्क हैं)।

: भी इस देखें /stats//a/59854/84191

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.