यह एक छोटा सा वैचारिक सवाल है जो मुझे कुछ समय के लिए परेशान कर रहा है: हम तंत्रिका नेटवर्क में अधिकतम-पूलिंग परत के माध्यम से वापस कैसे प्रचार कर सकते हैं?
मशाल 7 एनएन लाइब्रेरी के लिए इस ट्यूटोरियल से गुजरते हुए मैं अधिकतम-पूलिंग परतों में आया । पुस्तकालय एक गहरी नेटवर्क की प्रत्येक परत के लिए ग्रेडिएंट गणना और फॉरवर्ड पास को अमूर्त करता है। मुझे समझ में नहीं आता है कि अधिकतम-पूलिंग परत के लिए ढाल की गणना कैसे की जाती है।
मुझे पता है कि अगर आपके पास एक इनपुट जो कि लेयर न्यूरॉन में जा रहा है , तो ( ) द्वारा दिया गया है:
तो, एक अधिकतम-पूलिंग परत को हमेशा की तरह अगली परत का ' प्राप्त होगा ; लेकिन चूंकि अधिकतम-पूलिंग न्यूरॉन्स के लिए सक्रियण फ़ंक्शन मानों के एक वेक्टर में लेता है (जिस पर यह अधिकतम होता है) इनपुट के रूप में, अब एक भी संख्या नहीं है, लेकिन एक वेक्टर ( को द्वारा प्रतिस्थापित करना होगा । इसके अलावा, , अधिकतम फ़ंक्शन होने के कारण, यह इनपुट के संबंध में भिन्न नहीं है।
तो .... इसे कैसे काम करना चाहिए?