मैंने हाल ही में 1x1 संकल्पों पर यान लेकुंस टिप्पणी पढ़ी है :
संवेदी नेट में, "पूरी तरह से जुड़ी हुई परतें" जैसी कोई चीज नहीं है। 1x1 दृढ़ संकल्प गुठली और एक पूर्ण कनेक्शन तालिका के साथ केवल कन्वेंशन परतें हैं।
यह एक बहुत ही दुर्लभ तथ्य है कि ConvNets को एक निश्चित आकार के इनपुट की आवश्यकता नहीं है। आप उन्हें उन इनपुटों पर प्रशिक्षित कर सकते हैं जो एकल आउटपुट वेक्टर (कोई स्थानिक सीमा के साथ) उत्पन्न करने के लिए होते हैं, और फिर उन्हें बड़ी छवियों पर लागू करते हैं। एकल आउटपुट वेक्टर के बजाय, आप तब आउटपुट वैक्टर का स्थानिक नक्शा प्राप्त करते हैं। प्रत्येक वेक्टर इनपुट पर अलग-अलग स्थानों पर इनपुट विंडो देखता है। उस परिदृश्य में, "पूरी तरह से जुड़ी हुई परतें" वास्तव में 1x1 दृढ़ संकल्प के रूप में कार्य करती हैं।
मैं इसके लिए एक सरल उदाहरण देखना चाहूंगा।
उदाहरण
मान लें कि आपके पास पूरी तरह से कनेक्टेड नेटवर्क है। इसमें केवल एक इनपुट परत और एक आउटपुट परत है। इनपुट लेयर में 3 नोड होते हैं, आउटपुट लेयर में 2 नोड होते हैं। इस नेटवर्क में पैरामीटर हैं। इसे और भी अधिक ठोस बनाने के लिए, आपको आउटपुट परत और भार मैट्रिक्स में एक ReLU सक्रियण कार्य करने की सुविधा देता है
तो नेटवर्क साथ ।
यह देखने के लिए कि परतदार परत को कैसे देखना होगा? "पूर्ण कनेक्शन तालिका" के साथ LeCun का क्या अर्थ है?
मैं एक बराबर CNN प्राप्त करने के लिए लगता है कि यह बिल्कुल मापदंडों की एक ही संख्या के लिए होगा। ऊपर से MLP में पैरामीटर हैं।