खैर, यह एक नेटवर्क वास्तुकला और विशेष परत पर निर्भर करता है। सामान्य तौर पर एनएन व्याख्या करने योग्य नहीं होते हैं, यह वाणिज्यिक डेटा विश्लेषण में उनका प्रमुख दोष है (जहां आपका लक्ष्य आपके मॉडल से कार्रवाई योग्य अंतर्दृष्टि को उजागर करना है)।
लेकिन मुझे दृढ़ नेटवर्क पसंद है, क्योंकि वे अलग हैं! यद्यपि उनकी ऊपरी परतें बहुत सार अवधारणाएं सीखती हैं, हस्तांतरण सीखने और वर्गीकरण के लिए उपयोग करने योग्य, जो आसानी से समझ में नहीं आती हैं, उनकी निचली परतें कच्चे डेटा से सीधे गैबर फिल्टर सीखती हैं (और इस तरह के फिल्टर के रूप में व्याख्यात्मक हैं)। ले क्यून व्याख्यान से उदाहरण पर एक नज़र डालें:
इसके अलावा, एम। ज़ाइलर ( पीडीएफ ) और कई अन्य शोधकर्ताओं ने कंनेट को "समझने" के लिए बहुत ही रचनात्मक विधि का आविष्कार किया और यह सुनिश्चित किया कि यह कुछ उपयोगी डब किए गए Deconvolutional नेटवर्क को सीखे , जिसमें वे इनपुट चित्रों पर आगे पास बनाकर और याद करते हुए कुछ कंफर्ट को 'ट्रेस' करते हैं, जिसे याद रखना न्यूरॉन्स में सबसे बड़ी सक्रियता थी जिसके लिए पिक्स थे। यह इस तरह आश्चर्यजनक आत्मनिरीक्षण देता है (परतों के एक जोड़े को नीचे दिखाया गया था):
बाईं ओर ग्रे छवियां न्यूरॉन सक्रियण (अधिक तीव्रता - बड़ा सक्रियण) दाईं ओर रंग चित्रों द्वारा होती हैं। हम देखते हैं, कि ये सक्रियण वास्तविक पिक्सों के कंकाल निरूपण हैं, अर्थात, गतिविधियाँ यादृच्छिक नहीं हैं। इस प्रकार, हमारे पास एक ठोस आशा है, कि हमारे काफिले ने वास्तव में कुछ उपयोगी सीखा है और अनदेखी चित्रों में सभ्य सामान्यीकरण होगा।