कन्वर्सेशनल न्यूरल नेटवर्क और रेगुलर न्यूरल नेटवर्क में क्या अंतर है?


18

मैंने इन शर्तों को इस साइट के चारों ओर बहुत कुछ देखा है, विशेष रूप से टैग इन और

मुझे पता है कि एक तंत्रिका नेटवर्क मानव मस्तिष्क पर शिथिल आधारित प्रणाली है। लेकिन एक कन्वेंशनल न्यूरल नेटवर्क और एक रेगुलर न्यूरल नेटवर्क में क्या अंतर है ? एक बस एक बहुत अधिक जटिल है और, अहम, घुमावदार अन्य की तुलना में?

जवाबों:


23

TLDR: दृढ़ -तंत्रिका-तंत्रिका-नेटवर्क तंत्रिका-नेटवर्क का एक उपवर्ग है, जिसमें कम से कम एक दृढ़ीकरण परत होती है। वे स्थानीय जानकारी (जैसे छवि में पड़ोसी पिक्सल या किसी पाठ में आस-पास के शब्द) को कैप्चर करने के साथ-साथ मॉडल की जटिलता को कम करने के लिए महान हैं (तेजी से प्रशिक्षण, कम नमूनों की जरूरत है, ओवरफिटिंग की संभावना कम कर देता है)।

निम्नलिखित चार्ट को देखें जिसमें गहरे-पारंपरिक-तंत्रिका-नेटवर्क सहित कई तंत्रिका-नेटवर्क आर्किटेक्चर को दर्शाया गया है दृश्य:।


न्यूरल नेटवर्क्स (NN) , या अधिक सटीक रूप से Artificial Neural Networks (ANN) , मशीन लर्निंग एल्गोरिदम का एक वर्ग है, जो हाल ही में बिग डेटा और फास्ट कंप्यूटिंग सुविधाओं (ज्यादातर डीप लर्निंग) की उपलब्धता के कारण बहुत अधिक ध्यान (फिर से!) प्राप्त किया है। एल्गोरिदम अनिवार्य रूप से एएनएन के विभिन्न रूप हैं)।

एएनएन की श्रेणी में कई आर्किटेक्चर शामिल हैं, जिनमें कन्वेंशनल न्यूरल नेटवर्क्स ( सीएनएन ), रिकरंटल न्यूरल नेटवर्क्स ( आरएनएन ) जैसे एलएसटीएम और जीआरयू , ऑटोकेनोडर्स और डीप बिलीफ नेटवर्क शामिल हैं । इसलिए, सीएनएन केवल एक प्रकार का एएनएन है।

आम तौर पर, एक एएनएन कनेक्टेड और ट्यून करने योग्य इकाइयों (उर्फ नोड्स, न्यूरॉन्स, और कृत्रिम न्यूरॉन्स) का एक संग्रह है जो एक यूनिट से दूसरे में सिग्नल (आमतौर पर एक वास्तविक-मूल्यवान संख्या) पारित कर सकता है। इकाइयों की संख्या (परतों), उनके प्रकार, और जिस तरह से वे एक दूसरे से जुड़े हुए हैं, उसे नेटवर्क आर्किटेक्चर कहा जाता है।

विशिष्ट रूप से एक सीएनएन, में एक या अधिक परतें होती हैं, जो कि शोधन इकाइयों की होती हैं। एक कन्वेंशन यूनिट पिछली परत से कई इकाइयों से अपना इनपुट प्राप्त करता है जो एक साथ निकटता बनाते हैं। इसलिए, इनपुट इकाइयां (जो एक छोटा पड़ोस बनाती हैं) अपना वजन साझा करती हैं।

कनवल्शन यूनिट (और साथ ही पूलिंग यूनिट) विशेष रूप से फायदेमंद हैं:

  • वे नेटवर्क में इकाइयों की संख्या कम कर देते हैं (क्योंकि वे कई-से-एक मैपिंग हैं )। इसका मतलब है, सीखने के लिए कम पैरामीटर हैं जो ओवरफिटिंग की संभावना को कम करता है क्योंकि मॉडल पूरी तरह से जुड़े नेटवर्क की तुलना में कम जटिल होगा।
  • वे छोटे पड़ोस में संदर्भ / साझा जानकारी पर विचार करते हैं। यह भविष्य कई अनुप्रयोगों में बहुत महत्वपूर्ण है जैसे कि छवि, वीडियो, पाठ और भाषण प्रसंस्करण / खनन पड़ोसी इनपुट (जैसे पिक्सेल, फ्रेम, शब्द, आदि) के रूप में आमतौर पर संबंधित जानकारी ले जाते हैं।

(गहन) CNNs के बारे में अधिक जानकारी के लिए अनुसरण पढ़ें:

  1. डीप कन्व्यूशनल न्यूरल नेटवर्क्स के साथ इमेजनेट वर्गीकरण
  2. कन्वर्सेशन के साथ डीपर जाना

ps ANN "मानव मस्तिष्क पर पूरी तरह से आधारित एक प्रणाली" नहीं है, बल्कि न्यूरॉन कनेक्शन से प्रेरित सिस्टम का एक वर्ग जानवरों के दिमाग में मौजूद है।


11

संवैधानिक तंत्रिका नेटवर्क (CNNs) कम्प्यूटेशनल जटिलता को कम करने और अनुवाद संबंधी प्रतिरूपण को सुनिश्चित करने के लिए वास्तु बाधाओं के साथ तंत्रिका नेटवर्क हैं (नेटवर्क इनपुट पैटर्न की उसी तरह अनुवाद की परवाह किए बिना - छवि मान्यता के संदर्भ में: एक केला एक केला है जहां यह परवाह किए बिना है। छवि)। संवैधानिक तंत्रिका नेटवर्क में तीन महत्वपूर्ण वास्तुशिल्प विशेषताएं हैं।

स्थानीय कनेक्टिविटी: एक परत में न्यूरॉन्स केवल अगली परत में न्यूरॉन्स से जुड़े होते हैं जो स्थानिक रूप से उनके करीब होते हैं। यह डिज़ाइन लगातार परतों के बीच विशाल बहुमत को जोड़ता है, लेकिन उन लोगों को रखता है जो सबसे उपयोगी जानकारी ले जाते हैं। यहाँ बनाई गई धारणा यह है कि इनपुट डेटा का स्थानिक महत्व है, या कंप्यूटर दृष्टि के उदाहरण में, दो दूर के पिक्सल के बीच का संबंध संभवतः दो करीबी पड़ोसियों की तुलना में कम महत्वपूर्ण है।

साझा वजन: यह अवधारणा है जो सीएनएन को "दृढ़" बनाती है। वजन को साझा करने के लिए एक परत के न्यूरॉन्स को मजबूर करके, आगे पास (नेटवर्क के माध्यम से डेटा खिलाना) एक नई छवि का उत्पादन करने के लिए छवि पर एक फिल्टर को समझाने के बराबर हो जाता है। CNNs का प्रशिक्षण तब फिल्टर सीखने (यह तय करने का कार्य हो जाता है कि आपको डेटा में कौन सी सुविधाएँ दिखनी चाहिए।)

पूलिंग और ReLU: CNN में दो गैर-रैखिकताएँ होती हैं: पूलिंग लेयर्स और ReLU फ़ंक्शंस। पूलिंग परतें इनपुट डेटा के एक ब्लॉक पर विचार करती हैं और बस अधिकतम मूल्य पर गुजरती हैं। ऐसा करने से आउटपुट का आकार कम हो जाता है और सीखने के लिए कोई अतिरिक्त पैरामीटर की आवश्यकता नहीं होती है, इसलिए पूलिंग परतों का उपयोग अक्सर नेटवर्क के आकार को विनियमित करने के लिए किया जाता है और सिस्टम को एक कम्प्यूटेशनल सीमा से नीचे रखता है। ReLU फ़ंक्शन एक इनपुट, x लेता है, और अधिकतम {0, x} लौटाता है। ReLU(x) = argmax(x, 0)। यह तान (x) या सिग्मॉइड (x) के समान प्रभाव को मॉडल की व्यक्त शक्ति को बढ़ाने के लिए गैर-रैखिकता के रूप में पेश करता है।


आगे की पढाई

जैसा कि एक अन्य उत्तर में उल्लेख किया गया है, स्टैनफोर्ड के सीएस 231 एन पाठ्यक्रम में इस पर विस्तार से चर्चा की गई है। इस लिखित गाइड और अधिक जानकारी के लिए इस व्याख्यान की जाँच करें । इस तरह ब्लॉग पोस्ट और यह भी बहुत मददगार हैं।

यदि आप अभी भी उत्सुक हैं कि सीएनएन की संरचना क्यों है जो वे करते हैं, तो मैं सुझाव देता हूं कि कागज को पढ़ें जो उन्हें पेश करता है, हालांकि यह काफी लंबा है, और शायद यैन लेकुं और क्रिस्टोफर मैनिंग के बीच इस चर्चा की जाँच कर रहे हैं कि जन्मजात पुजारियों के बारे में (धारणाएं कब बनती हैं) हम एक मॉडल का आर्किटेक्चर डिजाइन करते हैं)।


2
"और अनुवाद संबंधी अविश्वास सुनिश्चित करें" क्या है अनुवाद अदर्शन? जब आप ऐसे रहस्यमय शब्द का उल्लेख करते हैं, तो आपको कम से कम, सहज रूप से इसे परिभाषित करना चाहिए।
17

1
वूप्स, मैं सहमत हूं- मैंने एक संक्षिप्त विवरण में जोड़ा।
जैक्सन वासचुरा

1
यह मेरे लिए एक बेहतर जवाब है, यह बताता है कि सीएनएन एक विशिष्ट प्रकार के एनएन कैसे हैं। अन्य उत्तरों में यह उल्लेख नहीं है कि वजन साझाकरण लागू है।
डेनजिलो

5

एक कन्वेन्शनल न्यूरल नेटवर्क वह होता है जिसमें कॉनवेल्थ लेयर्स होती हैं। यदि एक सामान्य तंत्रिका नेटवर्क है, शिथिल रूप से बोलना, एक मानव मस्तिष्क (जो बहुत सटीक नहीं है) से प्रेरित है, दृढ़ तंत्रिका नेटवर्क मानव और अन्य जानवरों में दृश्य कोर्टेक्स प्रणाली से प्रेरित है, (जो सत्य के करीब है) । जैसा कि नाम से पता चलता है, यह परत एक सीखे हुए फिल्टर (उर्फ कर्नेल ) के साथ कनवल्शन को लागू करती है , परिणामस्वरूप नेटवर्क छवियों में पैटर्न सीखता है: किनारों, कोनों, आर्क्स, फिर अधिक जटिल आंकड़े। संवेदी तंत्रिका नेटवर्क में अन्य परतें भी हो सकती हैं, आमतौर पर पूलिंग और घने परतें।

इस मामले पर CS231n ट्यूटोरियल की अत्यधिक अनुशंसा करें: यह बहुत विस्तृत है और इसमें बहुत अच्छे विज़ुअलाइज़ेशन हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.