क्या * एक कृत्रिम तंत्रिका नेटवर्क है?


15

जैसा कि हम तंत्रिका नेटवर्क साहित्य में तल्लीन करते हैं , हमें न्यूरोमॉर्फिक टोपोलॉजी ("न्यूरल-नेटवर्क"-समान आर्किटेक्चर) के साथ अन्य तरीकों की पहचान करने के लिए मिलता है। और मैं यूनिवर्सल अपीयरेंस प्रमेय के बारे में बात नहीं कर रहा हूं । उदाहरण नीचे दिए गए हैं।

फिर, यह मुझे आश्चर्यचकित करता है: एक कृत्रिम तंत्रिका नेटवर्क की परिभाषा क्या है? इसकी टोपोलॉजी सब कुछ कवर करती प्रतीत होती है।


उदाहरण:

पहली पहचान जो हम करते हैं, वह पीसीए और एक रैखिक ऑटोकेनोडर के बीच होती है, जो एनकोडर और डिकोडर में बंधी हुई भार के साथ होती है और अड़चन की परत में सक्रिय होती है।

इसके अलावा, एक आम पहचान रैखिक मॉडल (विशेष में लॉजिस्टिक प्रतिगमन) और एक छिपे हुए परत और एक एकल आउटपुट परत के साथ एक न्यूरल नेटवर्क के बीच की जाती है। यह पहचान कई दरवाजे खोलती है।

फूरियर और टेलर श्रृंखला? ANNsएसवीएम ? एएनएन। गाऊसी प्रक्रिया? ANN (अनंत छिपी हुई इकाइयों के साथ एकल छिपी परत के साथ)।

और इसलिए, बस के रूप में आसानी से, हम एक तंत्रिका नेटवर्क ढांचे में इन एल्गोरिदम के विशेष नुकसान कार्यों के साथ मनमाने नियमित संस्करण शामिल कर सकते हैं।

लेकिन जितना हम खोदते हैं, उतनी ही समानताएं दिखाई देती हैं। मैं सिर्फ डीप न्यूरल डिसीजन ट्रीज़ में फंस गया , जो निर्णय पेड़ों के साथ एक विशिष्ट एएनएन आर्किटेक्चर की पहचान करता है, जिससे उन्हें एएनएन विधियों (जैसे कि ग्रेडिएंट डिसेंट बैकप्रोपैजेशन) द्वारा सीखा जा सकता है। इससे हम पूरी तरह से तंत्रिका नेटवर्क टोपोलॉजी से रैंडम फॉरेस्ट और ग्रेडिएंट बूस्टेड डिसीजन ट्रीज का निर्माण कर सकते हैं।

यदि सब कुछ एक कृत्रिम तंत्रिका नेटवर्क के रूप में व्यक्त किया जा सकता है, तो क्या एक कृत्रिम तंत्रिका नेटवर्क को परिभाषित करता है?


डीप न्यूरल डिसीजन ट्रीज़ पर वह पेपर बहुत दूर है। सामान्य रूप से सक्रियण कार्य वास्तविक-मूल्यवान कार्य हैं, बाहरी उत्पाद नहीं। इसलिए वे वास्तव में ANN पर चर्चा नहीं कर रहे हैं जैसा कि हम आम तौर पर उनके बारे में सोचते हैं, लेकिन एक गणितीय सामान्यीकरण जो व्यापक रूप से उपयोग या स्वीकार नहीं किया जाता है। एएनएन दिखाने के लिए एक निर्णय पेड़ से अलग है, मैं बस यह इंगित करूंगा कि सभी एएनएन पैरामीट्रिक (एक परिमित पैरामीटर स्थान) हैं जबकि पेड़ गैर-पैरामीट्रिक हैं (एक संभावित अनंत पैरामीटर स्थान है।)
ओलोनी

@ कोलॉन्की क्रोनर उत्पाद एक सक्रियण फ़ंक्शन नहीं है, यह केवल पिछली परत के आउटपुट पर एक ऑपरेशन है (जैसे एक कनवल्शन, या कोई अन्य ऑपरेशन जो हम सक्रियणों को परिभाषित करते हैं)। DNDT किसी भी निर्णय वृक्ष का प्रतिनिधित्व कर सकता है, और प्रत्येक DNDT को निर्णय वृक्ष द्वारा दर्शाया जा सकता है।
फायरबग

1
@olooney सक्रियण फ़ंक्शन की आपकी परिभाषा से जा रहा है, सॉफ्टमैक्स एक सक्रियण फ़ंक्शन नहीं है।
फायरबग

2
मुझे पूरी तरह से यकीन नहीं है कि मैं इस प्रश्न के लिए प्रेरणा को समझता हूं। एएनएन की एक संभावित, ढीली परिभाषा यह है कि यह एक निर्देशित ग्राफिकल मॉडल है, जो इनपुट / आउटपुट को संसाधित करने के लिए न्यूरॉन्स (यानी, सक्रियण फ़ंक्शन) का उपयोग करता है और अधिकांश समय आप इसे प्रशिक्षित करने के लिए ढाल वंश का उपयोग करते हैं। जब आप कहते हैं कि "सब कुछ एक एएनएन के रूप में व्यक्त किया जा सकता है", तो क्या आप विशेष रूप से पूछ रहे हैं कि क्या उल्लेखित अन्य मॉडल और एएनएन के बीच सटीक मानचित्रण है? समस्या यह है कि आपको अनुकूलन से मेल खाने के लिए अत्यधिक संशोधित प्रशिक्षण दिनचर्या के साथ आना होगा।
एलेक्स आर।

1
@ साइकोरेक्स मैं भी करता हूं, वह और हिंटन दोनों ही इस पर इशारा करते हैं। मैं दूसरे खेमे में उत्तरदाताओं को विश्वसनीय स्रोत प्रदान करने का अवसर देना चाहता हूं :)
फायरबग

जवाबों:


6

जुरगेन श्मिधुबेर, " डीप लर्निंग इन न्यूरल नेटवर्क्स: एन ऑब्ज़र्वेशन " में तंत्रिका नेटवर्क और गहरी शिक्षा में महत्वपूर्ण अवधारणाओं के इतिहास का पता लगाया गया है। उनके विचार में, तंत्रिका नेटवर्क अनिवार्य रूप से किसी भी मॉडल को घेरना होगा जो कि एक निर्देशित ग्राफ के रूप में दिखाया जा सकता है जहां प्रत्येक नोड कुछ कम्प्यूटेशनल इकाई का प्रतिनिधित्व करता है। श्मिटुबेर एक प्रमुख तंत्रिका नेटवर्क शोधकर्ता है, और एलएसपीएम नेटवर्क पर सेप होचराइटर के साथ मूल पत्र लिखा था।

एक शिक्षण प्रणाली के कौन से परिवर्तनीय घटक इसकी सफलता या विफलता के लिए जिम्मेदार हैं? उनके प्रदर्शन में क्या बदलाव आए? इसे मौलिक क्रेडिट असाइनमेंट समस्या (Minsky, 1963) कहा गया है। सार्वभौमिक समस्या सॉल्वर के लिए सामान्य क्रेडिट असाइनमेंट विधियां हैं जो विभिन्न सैद्धांतिक इंद्रियों में समय-इष्टतम हैं (सेक। 6.8)। वर्तमान सर्वेक्षण, हालांकि, संकीर्ण पर ध्यान केंद्रित करेगा, लेकिन अब व्यावसायिक रूप से महत्वपूर्ण है, कृत्रिम तंत्रिका नेटवर्क (एनएन) में डीप लर्निंग (डीएल) का उपक्षेत्र।

एक मानक तंत्रिका नेटवर्क (एनएन) में कई सरल, कनेक्टेड प्रोसेसर होते हैं, जिन्हें न्यूरॉन्स कहा जाता है, प्रत्येक वास्तविक-मूल्यवान सक्रियताओं का एक क्रम उत्पन्न करते हैं। इनपुट न्यूरॉन्स पर्यावरण को ध्यान में रखते हुए सेंसर के माध्यम से सक्रिय हो जाते हैं, अन्य न्यूरॉन्स पहले से सक्रिय न्यूरॉन्स (सेकंड 2 में विवरण) से भारित कनेक्शन के माध्यम से सक्रिय हो जाते हैं। कुछ न्यूरॉन्स क्रियाओं को ट्रिगर करके पर्यावरण को प्रभावित कर सकते हैं। लर्निंग या क्रेडिट असाइनमेंट उन भारों को खोजने के बारे में है जो एनएन प्रदर्शन को वांछित व्यवहार बनाते हैं, जैसे कि कार चलाना। समस्या के आधार पर और न्यूरॉन्स कैसे जुड़े हुए हैं, इस तरह के व्यवहार के लिए कम्प्यूटेशनल चरणों (सेकंड 3) की लंबी कारण श्रृंखलाओं की आवश्यकता हो सकती है, जहां प्रत्येक चरण नेटवर्क (अक्सर एक गैर-रैखिक तरीके से) नेटवर्क के समग्र सक्रियण को बदल देता है। डीप लर्निंग इस तरह के कई चरणों में क्रेडिट असाइन करने के बारे में है।

कुछ ऐसे चरणों के साथ उथला एनएन जैसे मॉडल कई दशकों से आसपास हैं यदि सदियों (सेक। 5.1) नहीं। न्यूरॉन्स की कई क्रमिक गैर-परत वाली मॉडल कम से कम 1960 के दशक (सेक। 5.3) और 1970 के दशक (सेक। 5.5) से कम हैं। असतत में शिक्षक-आधारित सुपरवाइज्ड लर्निंग (SL) के लिए एक कुशल ढाल डिसेंट विधि, बैकप्रॉपैगैशन (BP) नामक मनमानी गहराई के अलग-अलग नेटवर्क को 1960 और 1970 के दशक में विकसित किया गया था और 1981 (सेक। 5.5) में NN पर लागू किया गया था। हालांकि, कई परतों के साथ गहरे एनएन का बीपी आधारित प्रशिक्षण, हालांकि 1980 के दशक के अंत तक (प्रथा 5.6) के द्वारा अभ्यास में कठिन पाया गया था, और 1990 के दशक (सेक। 5.9) तक एक स्पष्ट शोध विषय बन गया था। डीएल कुछ हद तक अनसुप्रवाइज्ड लर्निंग (यूएल), जैसे, सेक की मदद से व्यावहारिक हो गया। 5.10 (1991), सेक। 5.15 (2006)। 1990 और 2000 के दशक ने विशुद्ध रूप से पर्यवेक्षित DL (Sec। 5) के कई सुधार भी देखे। नई सहस्राब्दी में, गहन एनएन ने अंततः व्यापक प्रसार ध्यान आकर्षित किया है, मुख्य रूप से वैकल्पिक मशीन सीखने के तरीकों जैसे कि कर्नेल मशीनों (वापनिक, 1995; स्कोलॉफ़ एट अल।, 1998) सहित कई महत्वपूर्ण अनुप्रयोगों में। वास्तव में, 2009 के बाद से, गहन एनएन ने कई आधिकारिक अंतरराष्ट्रीय पैटर्न मान्यता प्रतियोगिताओं (जैसे, सेक। 5.17, 5.19, 5.21, 5.22) को जीता है, जो सीमित डोमेन (सिक। 5.19, 2011) में पहला सुपरह्यूमन विज़ुअल पैटर्न मान्यता परिणाम प्राप्त करता है। डीप एनएनएस रीइनफोर्समेंट लर्निंग (आरएल) के अधिक सामान्य क्षेत्र के लिए भी प्रासंगिक हो गए हैं जहां कोई शिक्षक शिक्षक नहीं है (सेक। 6)। मुख्य रूप से वैकल्पिक मशीन सीखने के तरीकों जैसे कि कर्नेल मशीन (वाप्निक, 1995; स्कोलॉफ़ एट अल।, 1998) जैसे कई महत्वपूर्ण अनुप्रयोगों में बेहतर प्रदर्शन किया है। वास्तव में, 2009 के बाद से, गहन एनएन ने कई आधिकारिक अंतरराष्ट्रीय पैटर्न मान्यता प्रतियोगिताओं (जैसे, सेक। 5.17, 5.19, 5.21, 5.22) को जीता है, जो सीमित डोमेन (सिक। 5.19, 2011) में पहला सुपरह्यूमन विज़ुअल पैटर्न मान्यता परिणाम प्राप्त करता है। डीप एनएनएस रीइनफोर्समेंट लर्निंग (आरएल) के अधिक सामान्य क्षेत्र के लिए भी प्रासंगिक हो गए हैं जहां कोई शिक्षक शिक्षक नहीं है (सेक। 6)। मुख्य रूप से वैकल्पिक मशीन सीखने के तरीकों जैसे कि कर्नेल मशीन (वाप्निक, 1995; स्कोलॉफ़ एट अल।, 1998) जैसे कई महत्वपूर्ण अनुप्रयोगों में बेहतर प्रदर्शन किया है। वास्तव में, 2009 के बाद से, गहन एनएन ने कई आधिकारिक अंतरराष्ट्रीय पैटर्न मान्यता प्रतियोगिताओं (जैसे, सेक। 5.17, 5.19, 5.21, 5.22) को जीता है, जो सीमित डोमेन (सिक। 5.19, 2011) में पहला सुपरह्यूमन विज़ुअल पैटर्न मान्यता परिणाम प्राप्त करता है। डीप एनएनएस रीइनफोर्समेंट लर्निंग (आरएल) के अधिक सामान्य क्षेत्र के लिए भी प्रासंगिक हो गए हैं जहां कोई शिक्षक शिक्षक नहीं है (सेक। 6)। सीमित डोमेन में पहला अलौकिक दृश्य पैटर्न मान्यता परिणाम प्राप्त करना (सेक। 5.19, 2011)। डीप एनएनएस रीइनफोर्समेंट लर्निंग (आरएल) के अधिक सामान्य क्षेत्र के लिए भी प्रासंगिक हो गए हैं जहां कोई शिक्षक शिक्षक नहीं है (सेक। 6)। सीमित डोमेन में पहला अलौकिक दृश्य पैटर्न मान्यता परिणाम प्राप्त करना (सेक। 5.19, 2011)। डीप एनएनएस रीइनफोर्समेंट लर्निंग (आरएल) के अधिक सामान्य क्षेत्र के लिए भी प्रासंगिक हो गए हैं जहां कोई शिक्षक शिक्षक नहीं है (सेक। 6)।

दूसरी ओर, मुझे यकीन नहीं है कि मशीन सीखने की रणनीतियों के लिए पारस्परिक रूप से अनन्य बाल्टी के एक वर्गीकरण का निर्माण करने की कोशिश करना लाभदायक है। मुझे लगता है कि हम कह सकते हैं कि ऐसे दृष्टिकोण हैं जिनसे मॉडल को तंत्रिका नेटवर्क के रूप में देखा जा सकता है। मुझे नहीं लगता कि परिप्रेक्ष्य सभी संदर्भों में सबसे अच्छा या उपयोगी है। उदाहरण के लिए, मैं अभी भी यादृच्छिक जंगलों और ढाल को बढ़ावा देने वाले पेड़ों को "वृक्षों के टुकड़ो" के रूप में संदर्भित करने के बजाय उनके भेदों को दूर करने और उन्हें "तंत्रिका नेटवर्क पेड़" कहने की योजना बना रहा हूं। इसके अलावा, श्मिटुबर एनएन को कर्नेल मशीनों से अलग करता है - भले ही कर्नेल मशीनों का एनएन से कुछ संबंध हो - जब वह लिखता है "नई सहस्राब्दी में, गहरे एनएन ने आखिरकार व्यापक प्रसार ध्यान आकर्षित किया है," मुख्य रूप से वैकल्पिक मशीन सीखने के तरीकों जैसे कि कर्नेल मशीन ... को कई महत्वपूर्ण अनुप्रयोगों में बेहतर रूप से प्रस्तुत करके। "


इसलिए मूल रूप से मशीन लर्निंग एंड स्टैटिस्टिक्स में जाना जाने वाला हर मॉडल और हेयुरिज्म को आज Schmidhuber द्वारा ANN माना जाएगा, जिसमें विशिष्ट नामकरण केवल अनुकूलन रणनीति द्वारा दिया जा रहा है (यहां कोई अनुकूलन के साथ मॉडल नहीं है)?
फायरबग

1
मुझे लगता है कि, व्यावहारिक दृष्टिकोण से, लेकिन यह इस तथ्य को नहीं बदलता है कि हर मॉडल बहुत कड़ाई से बोल रहा है, एक एएनएन (मैं किसी भी एकल मॉडल के बारे में नहीं सोच सकता है जो नहीं है)।
फायरबग

2
@Firebug आप रिग्रेटेशन रिग्रेशन (साधारण k- साधन और अन्य) क्लस्टरिंग समस्याओं को कैसे सुधारेंगे, जिन्हें प्रशिक्षित या 'सीखने के माहौल' में रखा गया है, जैसे कि वे ANN की इस परिभाषा के बराबर हैं?
सेक्टस एम्पिरिकस

1
@Firebug मैं यह नहीं देखता कि कैसे तथ्य यह है कि पीसीए को एक विशेष ऑटोकेनडर के बराबर दिखाया जा सकता है, पीसीए को "एक तंत्रिका नेटवर्क" बनाता है। मानक पीसीए में हम ग्रेडिएंट डिसेंट का भी उपयोग नहीं कर रहे हैं।
अमीबा का कहना है कि

1
@ फ़ायरबग यदि आप "एनएन" को "कनेक्टेड कम्प्यूटेशनल नोड्स" के रूप में परिभाषित करते हैं, तो मुझे लगता है कि कोई भी गणना एक एनएन है। यकीन नहीं है कि किसी भी उपयोग की है, लेकिन ठीक है।
अमीबा का कहना है कि मोनिका

7

यदि आप एक ANN की मूल परिभाषा चाहते हैं, तो आप कह सकते हैं कि यह एक निर्देशित-चित्रमय-मॉडल है, जहां इनपुट और आउटपुट सक्रियण फ़ंक्शन के माध्यम से प्रत्येक नोड पर संसाधित किए जाते हैं, और अधिकांश समय ढाल वंश का उपयोग इसे प्रशिक्षित करने के लिए किया जाता है। तो सवाल वास्तव में हो जाता है: क्या मॉडल वहाँ से चित्रमय मॉडल के रूप में व्यक्त किया जा सकता है?

मैं एक विशेषज्ञ नहीं हूं, लेकिन मेरा मानना ​​है कि सैद्धांतिक रूप से कुछ एएनएन को ट्यूरिंग को पूरा करने के लिए दिखाया जा सकता है, जिसका अर्थ है कि उन्हें गणना के किसी भी संभावित सेट को करने में सक्षम होना चाहिए ( संसाधनों की एक संभावित अनंत संख्या के साथ, आपके मन में)।

मैं निम्नलिखित तरीके से आपके प्रश्न की व्याख्या करने जा रहा हूं:

किसी भी दिए गए मॉडल के लिए, क्या मैं उस मॉडल का अनुकरण करने के लिए एक ANN मॉडल को एक साथ थप्पड़ मार सकता हूं, जितना संभव हो, और उचित समय पर?

एक वैनिला न्यूरल नेटवर्क हेविसाइड स्टेप-एक्टिवेशन का उपयोग करके, एक निर्णय ट्री का अनुकरण कर सकता है। समस्या यह है कि ऐसी इकाई सक्रियण में शून्य ढाल है, इसलिए सामान्य ढाल वंश कार्य नहीं करेगा। आप कह सकते हैं, "कोई बात नहीं, बस ढाल वंश के एक संशोधित रूप का उपयोग करें।" हालाँकि, यह अभी भी पर्याप्त नहीं है। एक बेहतर उदाहरण के लिए, XGBOOST की तरह कुछ लें, जो केवल ढाल-वर्धित वन नहीं है। वहाँ बहुत सारे अतिरिक्त काम हैं जो विभाजन बिंदुओं को चुनने में, प्रूनिंग, गति के लिए अनुकूलन, आदि में हो सकते हैं। हो सकता है कि पर्याप्त संशोधनों के बाद आप एक समान दिखने वाले ANN बना सकें, लेकिन यह बिल्कुल स्पष्ट नहीं है कि ऐसा कोई ANN कम से कम प्रदर्शन करेगा। ठीक है, और न ही अगर यह काम करने के लिए अनुकूलित है।

f(x)=eएक्स


2
जवाब के लिए धन्यवाद! सवाल के बारे में - "For any given model, can I slap together an ANN model to emulate that model, as close as possible, and in a reasonable amount of time?"- मुझे यह कहने में डर लगता है कि यह बात नहीं है। बात यह है कि, ANN टोपोलॉजी इतनी सामान्य है कि यह सब कुछ कवर करती है, और अनुकूलन रणनीति यह निर्धारित करने में सक्षम नहीं लगती है कि क्या है और एक ANN क्या नहीं है। इसलिए सवाल, क्या एक ANN परिभाषित करता है? क्योंकि अन्यथा सब कुछ एक तरह से अन्य शब्दों में व्यक्त किया गया ANN है।
फायरबग

1
"A vanilla neural network can emulate a decision tree, by using heaviside step-activations. The problem is that such unit activations have zero gradient, so normal gradient descent won't work. You might say, "no problem, just use a modified form of gradient descent." However, that's still not enough. [...]"- जैसा कि हम दावा कर सकते हैं, अनुकूलन एक एएनएन के गठन की परिभाषा के लिए एक निर्धारक कारक नहीं है। यदि आप प्रत्येक निर्णय पेड़ को एक तंत्रिका नेटवर्क के रूप में लिख सकते हैं (और हम ऐसा कर सकते हैं), तो हम सुरक्षित रूप से कह सकते हैं कि डीटीएस (एक प्रकार का) एनएन हैं, जबकि काफिला सच नहीं है।
फायरबग

"If you want a basic definition of an ANN, you might say that it's a directed-graphical-model, where inputs and outputs are processed at each node via an activation function, and most of the time gradient descent is used to train it. So the question really becomes: what models out there can be expressed as graphical models?"- मैं इससे सहमत हु। फिर, "न्यूरल नेटवर्क" को मॉडल के सबसे सामान्य वर्ग के रूप में व्याख्या की जा सकती है, शायद "ग्राफ़ मॉडल" की तुलना में केवल कम सामान्य है, जो अप्रत्यक्ष और निर्देशित ग्राफ़ मॉडल दोनों का सुपरसेट है। शायद आप इस पर अधिक विस्तार कर सकते हैं;)
फायरबग

2

शायद, एएनएन के लिए एक अधिक सटीक नाम "विभेदी नेटवर्क" है, अर्थात जटिल पैराट्राइज्ड फ़ंक्शन जिन्हें ग्रेडिएंट वंश या इसके संस्करण का उपयोग करके अनुकूलित किया जा सकता है। यह एक बहुत ही सामान्य परिभाषा है जो विभिन्नता पर जोर देती है, लेकिन प्रमुख विचारों, कार्यों के बारे में कुछ भी नहीं बताती है जो इसके लिए अनुकूल है, अंतर्निहित गणितीय रूपरेखा, आदि।

ध्यान दें कि भिन्नता एक विशेषता है, मुख्य आवश्यक नहीं है। उदाहरण के लिए, एसवीएम को ग्रेडिएंट डीसेंट का उपयोग करके प्रशिक्षित किया जा सकता है और इस प्रकार यह एक तंत्रिका / भिन्न नेटवर्क के गुणों को प्रदर्शित करता है, लेकिन मुख्य विचार हाइपरप्लेन का उपयोग करके डेटा पृथक्करण में है। वैरिएबल ऑटोएन्कोडर एनकोडर और डिकोडर के लिए एमएलपी का उपयोग करता है, लेकिन आपके द्वारा ऑप्टिमाइज़ किया जाने वाला फ़ंक्शन बायेसियन आंकड़ों से आता है, और इसी तरह।

वहाँ भी कुछ मॉडल है कि अक्सर तंत्रिका नेटवर्क के रूप में जाना जाता है, लेकिन सीखने के लिए GD का उपयोग नहीं करते हैं। एक अच्छा उदाहरण आरबीएम है। मेरा अनुमान है कि लेबल "तंत्रिका नेटवर्क" ज्यादातर ऐतिहासिक कारणों से जुड़ा हुआ था - आखिरकार, आरबीएम के निर्माता ज्योफ्री हिंटन हैं, और हिंटन एक तंत्रिका नेटवर्क लड़का है, है ना? हालाँकि, यदि आप उस मॉडल का विश्लेषण करते हैं जो आप देखेंगे कि आरबीएम की संरचना एक मार्कोव नेट है, तो ऊर्जा-आधारित लागत समारोह 20 वीं शताब्दी की शुरुआत के सांख्यिकीय भौतिकी से आता है और एमसीएमसी / गिब्स नमूना समतावादी नेटवर्क से समानांतर और पूरी तरह से स्वतंत्र रूप से विकसित हो रहा है। ।


2
स्नातक स्तर की पढ़ाई निश्चित रूप से एएनएन की सफलता में एक भूमिका निभाई है। लेकिन मुझे परिभाषा के आधार पर भिन्नता नहीं दिखती है, क्योंकि कुछ ANN भिन्न नहीं हैं। उदाहरण के लिए, बहुत पहले ANN (मैकुलोच-पिट्स मॉडल) ने बाइनरी थ्रेशोल्ड इकाइयों का इस्तेमाल किया। एक वर्तमान शोध विषय यह है कि स्पाइकिंग नेट जैसे गैर-विभेदी ANN में सीखने का प्रदर्शन कैसे किया जाता है। या, मान लें कि हम एक विशिष्ट, अलग-अलग ANN के साथ शुरू करते हैं, लेकिन फिर घोषणा करते हैं कि हम एक गैर-परिवर्तनीय नुकसान फ़ंक्शन को कम करना चाहते हैं। क्या यह अब ANN नहीं है?
user20160

यही कारण है कि मैंने एक वैकल्पिक परिभाषा का प्रस्ताव किया है जिसमें फीड-फॉवर्ड, आवर्तक, पुनरावर्ती, दृढ़ नेटवर्क, ऑटोएन्कोडर्स, वीएई, गण, ध्यान और कई अन्य मॉडल शामिल हैं जिन्हें हम सामान्य रूप से "न्यूरल नेटवर्क" कहते हैं, लेकिन मानव मस्तिष्क के अनुकरण पर आधारित दृष्टिकोणों को छोड़कर या पीजीएम पर व्यापक नमूनाकरण। 2018 के अनुसार, ये दृष्टिकोण वास्तव में अलग हैं, वे अलग-अलग अनुकूलन विधियों, विभिन्न पुस्तकालयों आदि का उपयोग करते हैं (हालांकि मैं सीएनएन या आरएनएन के विपरीत, नेटिंग के लिए "न्यूरल नेटवर्क" से बेहतर नाम के बारे में नहीं सोच सकता, वास्तव में मानव का अनुकरण करता हूं। दिमाग)।
दोस्त

1

मैं कुछ चीजों को पोस्ट करने की कोशिश कर सकता हूं जो तंत्रिका नेटवर्क को परिभाषित करने में मदद करती हैं।

  • समायोज्य मापदंडों के साथ एक संगणना ग्राफ।
  • कहा मापदंडों को डेटा (वास्तविक या नकली) के अनुरूप समायोजित किया जा सकता है।
  • अनुकूलित किया जाने वाला एक उद्देश्य फ़ंक्शन निहित या स्पष्ट रूप से शामिल है। यह मापदंडों पर वैश्विक या स्थानीय हो सकता है।

मुझे पूरा यकीन है कि यह आज सभी तंत्रिका नेटवर्क को आम उपयोग में लाता है और कुछ गूढ़ भी।

यह अनुकूलन के लिए अज्ञेय है (यदि हमने ढाल-आधारित अनुकूलन लगाया है, तो विकसित नेटवर्क तंत्रिका नेटवर्क नहीं होगा)।

इसमें न्यूरॉन्स / नोड्स या परतों का उल्लेख नहीं है (कुछ तंत्रिका नेटवर्क आज शायद ही इन शर्तों द्वारा वर्णित हैं), लेकिन मुझे लगता है कि हम इसे शामिल कर सकते हैं और थोड़ा और अधिक प्रतिबंधक हो सकते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.