तंत्रिका नेटवर्क और गहरी सीखने के बीच अंतर


10

तंत्रिका नेटवर्क और गहन सीखने के बीच अंतर के संदर्भ में, हम कई वस्तुओं को सूचीबद्ध कर सकते हैं, जैसे कि अधिक परतें शामिल हैं, प्रशिक्षण जटिल मॉडल को संभव बनाने के लिए बड़े पैमाने पर डेटा सेट, शक्तिशाली कंप्यूटर हार्डवेयर।

इनके अलावा, क्या NN और DL के बीच अंतर के बारे में कोई और विस्तृत विवरण है?


3
जहाँ तक मुझे पता है, एक नेटवर्क को "गहरा" बनाने के लिए बस कई छिपी हुई परतें पर्याप्त हैं; अधिक डेटा और बड़े कंप्यूटर मशीन लर्निंग कार्यों के लिए दोनों की बढ़ती उपलब्धता का एक लक्षण है।
साइकोरैक्स का कहना है कि मोनिका

शायद इस प्रश्न को नए कलात्मक खुफिया स्टैक एक्सचेंज में माइग्रेट किया जाना चाहिए ?
विलियमके

2
@WilliamKF यह वर्ग-विषय पर यहाँ है।
साइकोरैक्स का कहना है कि मोनिका

जवाबों:


7

गहरी सीख = गहरे कृत्रिम तंत्रिका नेटवर्क + अन्य प्रकार के गहरे मॉडल

डीप कृत्रिम तंत्रिका नेटवर्क = 1 से अधिक परत वाले कृत्रिम तंत्रिका नेटवर्क। ( एक गहरे तंत्रिका नेटवर्क में परतों की न्यूनतम संख्या देखें )


4

फ्रैंक डर्नोनकोर्ट के पास एक बेहतर सामान्य उद्देश्य उत्तर है, लेकिन मुझे लगता है कि यह ध्यान देने योग्य है कि जब लोग "डीप लर्निंग" शब्द का व्यापक रूप से उपयोग करते हैं, तो वे अक्सर हालिया तकनीकों का उपयोग कर रहे हैं, जैसे कि सजा, कि आप पुराने / पारंपरिक में नहीं पाएंगे। (पूरी तरह से जुड़ा हुआ) तंत्रिका नेटवर्क। छवि पहचान की समस्याओं के लिए, दीक्षांत गहन तंत्रिका नेटवर्क को सक्षम कर सकता है क्योंकि जटिल न्यूरॉन्स / फ़िल्टर कुछ साझाकरणों को साझा करके ओवरफ़िटिंग के जोखिम को कम करते हैं।


1

परतों के एक बहुत कुछ के साथ न्यूरल नेटवर्क हैं गहरी आर्किटेक्चर।

हालाँकि, तंत्रिका नेटवर्क में उपयोग किया जाने वाला बैकप्रॉपैगैशन लर्निंग अल्गोरिद्म अच्छी तरह से काम नहीं करता है जब नेटवर्क बहुत गहरा होता है। आर्किटेक्चर इन डीप आर्किटेक्चर ("गहन शिक्षा") को इसे संबोधित करना है। उदाहरण के लिए, बोल्ट्ज़मैन मशीनें इसके बजाय एक विपरीत सीखने के एल्गोरिथ्म का उपयोग करती हैं।

एक गहरी वास्तुकला के साथ आना आसान है। एक शिक्षण एल्गोरिथ्म के साथ आना जो एक गहरी वास्तुकला के लिए अच्छी तरह से काम करता है, मुश्किल साबित हुआ है।


लेकिन ऐसा लगता है कि बैकप्रॉपैगैशन एल्गोरिथ्म का उपयोग अभी भी कन्ट्रैस नेट और आवर्तक नेट को प्रशिक्षित करने के लिए किया जाता है, भले ही वे कुछ नए विकसित संख्यात्मक अनुकूलन तकनीकों का लाभ उठाते हैं, जैसे कि बैच सामान्यीकरण।
user3269

@ user3269 बैच का सामान्यीकरण और ड्रॉपआउट गहरी एल्गोरिदम में अच्छी तरह से काम करने की कोशिश करने के लिए सीखने के एल्गोरिथ्म में संशोधन के उदाहरण हैं।
नील जी

0

डीप लर्निंग के लिए एक तंत्रिका नेटवर्क की आवश्यकता होती है जिसमें कई परतें होती हैं - प्रत्येक परत गणितीय परिवर्तनों को करती है और अगली परत में खिलाती है। अंतिम परत से आउटपुट किसी दिए गए इनपुट के लिए नेटवर्क का निर्णय है। इनपुट और आउटपुट लेयर के बीच की परतों को हिडन लेयर्स कहा जाता है।

एक गहरी शिक्षा तंत्रिका नेटवर्क परतों में परस्पर जुड़े हुए पेसेप्ट्रॉन का एक विशाल संग्रह है। नेटवर्क में प्रत्येक परसेप्ट्रान के भार और पूर्वाग्रह पूरे नेटवर्क के आउटपुट निर्णय की प्रकृति को प्रभावित करते हैं। एक पूरी तरह से ट्यून किए गए तंत्रिका नेटवर्क में, सभी परिधि के वजन और पूर्वाग्रह के सभी मूल्य ऐसे हैं कि सभी संभावित आदानों के लिए आउटपुट निर्णय हमेशा सही (उम्मीद के मुताबिक) होता है। वजन और पूर्वाग्रह कैसे कॉन्फ़िगर किए गए हैं? यह नेटवर्क के प्रशिक्षण के दौरान पुनरावृत्त होता है - जिसे गहरी शिक्षा कहा जाता है। (शरद गांधी)

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.