दृढ़ परतें और पूलिंग परतें स्वयं इनपुट आयामों से स्वतंत्र होती हैं। हालाँकि, कन्वेन्शनल लेयर्स के आउटपुट में अलग-अलग आकार की छवियों के लिए अलग-अलग स्थानिक आकार होंगे, और यह एक समस्या का कारण होगा यदि हमारे पास पूरी तरह से कनेक्टेड लेयर है (चूंकि हमारी पूरी तरह से कनेक्ट की गई परत को एक निश्चित आकार के इनपुट की आवश्यकता है)। इसके कई समाधान हैं:
1. ग्लोबल पूलिंग: कंसिस्टेंट लेयर्स के अंत में पूरी तरह से कनेक्टेड लेयर्स से बचें, और इसके बजाय (N, H, W, C) के आकार से अपने फ़ीचर मैप्स को कम करने के लिए पूलिंग (जैसे ग्लोबल एवरेज पूलिंग) का इस्तेमाल करें (ग्लोबल पूल से पहले) ) आकार (एन, 1,1, सी) (वैश्विक पूल के बाद), जहां के लिए:
एन = संख्या minibatch नमूनों की
एच = विशेषता मानचित्र के स्थानिक ऊंचाई
डब्ल्यू = स्थानिक चौड़ाई विशेषता मानचित्र के
सी = सुविधा नक्शे (चैनलों की संख्या)
के रूप में देखा जा सकता है, आउटपुट आयामीता (एन * सी) अब फीचर मैप्स के स्थानिक आकार (एच, डब्ल्यू) से स्वतंत्र है। वर्गीकरण के मामले में, आप अपनी कक्षाओं के लिए लॉग प्राप्त करने के लिए शीर्ष पर पूरी तरह से कनेक्ट की गई परत का उपयोग करने के लिए आगे बढ़ सकते हैं।
2. चर आकार पूलिंग:विभिन्न इनपुट आकारों के लिए समान सुविधा मानचित्र आकार प्राप्त करने के लिए चर आकार पूलिंग क्षेत्रों का उपयोग करें।
3. फसल / आकार / पैड इनपुट छवियां: आप अपने इनपुट चित्रों को सभी प्रकार के समान करने के लिए पुनर्विक्रय / क्रॉप / पैड कर सकते हैं।
ट्रांसफर लर्निंग के संदर्भ में, आप मूल इनपुट की तुलना में अलग-अलग आकार के इनपुट का उपयोग करना चाह सकते हैं जो मॉडल के साथ प्रशिक्षित किया गया था। ऐसा करने के लिए यहां कुछ विकल्प दिए गए हैं
। 4. नई पूरी तरह से जुड़ी हुई परतें बनाएं: आप मूल रूप से पूरी तरह से जुड़ी हुई परतों को पूरी तरह से खोद सकते हैं और आपको जिस आयाम की आवश्यकता है, उसके साथ एक नई पूरी तरह से जुड़ी परत को आरंभीकृत कर सकते हैं और इसे खरोंच से प्रशिक्षित कर सकते हैं।
5. पूरी तरह से जुड़ी हुई परत को एक संधि के रूप में समझें: आम तौर पर, हम पूरी तरह से जुड़ी हुई परत को खिलाने से पहले (N, H, W, C) से (N, H * W * C) फीचर मैप को फिर से खोल देते हैं। लेकिन आप (एच, डब्ल्यू) के ग्रहणशील क्षेत्र के साथ एक दृढ़ विश्वास के रूप में पूरी तरह से जुड़े परत का भी इलाज कर सकते हैं। फिर, आप इस कर्नेल को अपने फीचर मैप्स से उनके आकार की परवाह किए बिना मना सकते हैं (यदि आवश्यक हो तो शून्य पैडिंग का उपयोग करें) [
http://cs231n.github.io/transfer-learning/ ]।