अन्य फीचर मैप बनाने के लिए फीचर मैप्स पर गुठली कैसे लगाई जाती है?


44

मैं कंफर्टेबल न्यूरल नेटवर्क के कन्वेंशन पार्ट को समझने की कोशिश कर रहा हूं। निम्नलिखित आकृति को देखते हुए:

यहाँ छवि विवरण दर्ज करें

मुझे पहली कनवल्शन लेयर को समझने में कोई समस्या नहीं है जहाँ हमारे पास 4 अलग-अलग कर्नेल हैं (आकार ), जो हम 4 इमेज मैप प्राप्त करने के लिए इनपुट इमेज के साथ आते हैं।k×k

जो मुझे समझ नहीं आ रहा है वह अगली कन्वर्सेशन लेयर है, जहां हम 4 फीचर मैप से 6 फीचर मैप पर जाते हैं। मुझे लगता है कि हमारे पास इस परत में 6 कर्नेल हैं (फलस्वरूप 6 आउटपुट फीचर मैप्स दे रहे हैं), लेकिन ये कर्नेल C1 में दिखाए गए 4 फ़ीचर मैप पर कैसे काम करते हैं? क्या गुठली 3-आयामी है, या वे 2-आयामी हैं और 4 इनपुट सुविधा नक्शे में दोहराए गए हैं?


1
मैं उसी जगह फंस गया हूं। Unfortuantely Yann Lecun-s पेपर यह भी स्पष्ट नहीं करता है कि - मैं पिछले कुछ दिनों से कई pdfs और वीडियो के माध्यम से जा रहा हूं और हर कोई उस हिस्से को छोड़ देता है। Yann Lecun का पेपर वास्तव में लेयर 2 में मैपिंग टेबल के साथ 6 से 16 फीचर मैप की बात करता है। पहले आउटपुट फीचर मैप में 0,1,2 इनपुट फीचर मैप से इनपुट मिलता है। लेकिन वह आउटपुट फीचर मैप 10 बाई 10 है, 3 इनपुट फीचर मैप्स 14 बाय 14. है। तो वह काम कैसे हुआ? क्या आपको समझ आया कि क्या चल रहा है? क्या यह 3-डी कर्नेल है? या यह स्थान से औसत से औसत है * कर्नेल (दृढ़ संकल्प)?
रन २

जवाबों:


18

गुठली 3-आयामी हैं, जहां चौड़ाई और ऊंचाई को चुना जा सकता है, जबकि गहराई इनपुट परत में नक्शे की संख्या के बराबर है - सामान्य रूप से।

वे निश्चित रूप से 2-आयामी नहीं हैं और समान 2 डी स्थान पर इनपुट सुविधा के नक्शे में दोहराए गए हैं! इसका मतलब यह होगा कि एक कर्नेल किसी दिए गए स्थान पर अपनी इनपुट विशेषताओं के बीच अंतर नहीं कर पाएगा, क्योंकि यह इनपुट फीचर मैप्स में एक और समान वजन का उपयोग करेगा!


5

परतों और गुठली के बीच एक-से-एक पत्राचार जरूरी नहीं है। यह विशेष वास्तुकला पर निर्भर करता है। आपके द्वारा पोस्ट की गई आकृति बताती है कि S2 लेयर्स में आपके पास 6 फ़ीचर मैप्स हैं, प्रत्येक पिछली लेयर्स के सभी फ़ीचर मैप्स को संयोजित करता है, यानी फीचर्स के अलग-अलग संभावित संयोजन।

अधिक संदर्भ के बिना मैं और अधिक नहीं कह सकता। उदाहरण के लिए देखें यह पेपर


मैं विशेष रूप से LeNet-5 को देख रहा हूं, और मेरे संदर्भ के रूप में इस deeplearning.net/tutorial/lenet.html का उपयोग कर रहा हूं। यह उस पृष्ठ से लगता है, कि गुठली 3-आयामी है, लेकिन यह मेरे लिए 100% स्पष्ट नहीं है।
utdiscant

2
आपको इस पेपर को ( yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf ) पढ़ने की आवश्यकता है । पृष्ठ 8 पर यह वर्णन किया गया है कि विभिन्न परतें कैसे जुड़ी हुई हैं। जैसा कि मैंने कहा, परत पर प्रत्येक विशेषता परत एक ही स्थान पर पिछली परत से कई विशेषताओं को जोड़ती है।
jpmuc

2
लिंक मर चुका है।
जुल १

2

Yann LeCun की "ग्रेड 1 ए और धारा 2a की डॉक्यूमेंट आधारित लर्निंग एप्लाइड टू डॉक्यूमेंट रिकग्निशन" यह अच्छी तरह से समझाती है: http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf 5x5 कनवल्शन के सभी क्षेत्र नहीं हैं। 2 संकेंद्रित परत उत्पन्न करने के लिए उपयोग किया जाता है।


0

यह लेख सहायक हो सकता है: 26 मार्च से टिम डेटर्स द्वारा डीप लर्निंग में अंडरस्टैंडिंग कन्वेंशन

यह वास्तव में इस सवाल का जवाब नहीं देता है क्योंकि यह केवल पहली कनवल्शन लेयर की व्याख्या करता है, लेकिन CNNs में कनविक्शन के बारे में बुनियादी अंतर्ज्ञान की अच्छी व्याख्या है। यह दीक्षांत की गणितीय गणितीय परिभाषा का भी वर्णन करता है। मुझे लगता है कि यह प्रश्न विषय से संबंधित है।


1
साइट पर आपका स्वागत है। हम प्रश्नों और उत्तरों के रूप में उच्च-गुणवत्ता वाले सांख्यिकीय जानकारी का एक स्थायी भंडार बनाने की कोशिश कर रहे हैं। इस प्रकार, हम लिंक-ओनली उत्तरों से सावधान रहते हैं, क्योंकि लिंकरोट के कारण। यदि आप मृत हो जाते हैं, तो क्या आप लिंक पर पूर्ण उद्धरण और जानकारी का सारांश पोस्ट कर सकते हैं?
गूँग - मोनिका

@gung, नोटिस के लिए धन्यवाद, अवधारणाओं को गलत समझने के लिए क्षमा करें। स्थिति यह है: यह लेख वास्तव में इस सवाल का जवाब नहीं देता है, लेकिन जब मैं सीएनएन के बारे में बुनियादी अंतर्ज्ञान की तलाश कर रहा था तो मुझे यह सवाल मिला और मुझे इस लेख के साथ मदद करने की उम्मीद थी जिसने बुनियादी अंतर्ज्ञान की खोज की और यह प्रश्न मिला। ठीक है, इसे हटाने के लिए बेहतर है, हाँ? धन्यवाद।
अनातोली वासिलिवे

मुझे लगता है कि यह कहना ठीक होगा, 'यह लेख विचार के लिए भोजन के रूप में काम कर सकता है, लेकिन इस सवाल का पूरी तरह से जवाब नहीं देता' या ऐसा ही कुछ। यहां अच्छी तरह से मूल्य हो सकते हैं। यदि लिंक मृत हो जाता है, तो बस एक संपूर्ण उद्धरण दें, और निहित जानकारी का सारांश दें।
गंग -

अतिरिक्त जानकारी के लिए धन्यवाद। क्या आप कागज (लेखक, वर्ष, शीर्षक, पत्रिका, आदि) और उसकी सामग्री का सारांश प्रदान कर सकते हैं?
गूँग - मोनिका

@gung हाँ, बिल्कुल। लेकिन ऐसा लगता है कि यह लेख केवल इस ब्लॉग में है, इसलिए मुझे इसके बारे में कोई अन्य उपयोगी जानकारी नहीं मिली। मेरे विचार को स्पष्ट करने के लिए धन्यवाद
Anatoly Vasilyev
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.