क्या तंत्रिका नेटवर्क में व्याख्यात्मकता होती है जैसे निर्णय पेड़ करते हैं?


13

डिसीजन ट्रीज में, हम ट्री स्ट्रक्चर के आउटपुट को समझ सकते हैं और हम यह भी अंदाजा लगा सकते हैं कि डिसीजन ट्री कैसे निर्णय लेता है। इसलिए निर्णय पेड़ों में व्याख्यात्मकता होती है (उनके उत्पादन को आसानी से समझाया जा सकता है।)

क्या हमारे पास निर्णय लेने वाले पेड़ों की तरह तंत्रिका नेटवर्क में व्याख्यात्मकता है?


1
एक हालिया मॉडल-अज्ञेयवादी फ्रेम लिमई मॉडल है
Emre

तंत्रिका नेटवर्क का उपयोग करके वस्तु मान्यता / वर्गीकरण के क्षेत्र में, हीटमैप्स ऐसे निर्णय के बारे में कल्पना / व्याख्या करने के लिए लोकप्रिय हैं जैसे हीटमैपिंग ओआरजी । ट्यूटोरियल और इंटरैक्टिव प्रदर्शन उपलब्ध हैं।
निकोलस रिबल

जवाबों:


9

मैं पिछले उत्तर से और आपके सुझाव से दो कारणों से असहमत हूं:

1) निर्णय वृक्ष सरल तार्किक निर्णयों पर आधारित होते हैं जो एक साथ मिलकर अधिक जटिल निर्णय ले सकते हैं। लेकिन अगर आपके इनपुट में 1000 आयाम हैं, और सीखी गई विशेषताएं अत्यधिक गैर रेखीय हैं, तो आपको वास्तव में बड़ा और भारी निर्णय पेड़ मिलता है, जिसे आप केवल नोड्स को देखकर पढ़ / समझ नहीं पाएंगे।

2) तंत्रिका नेटवर्क इस अर्थ में समान हैं कि जो फ़ंक्शन वे सीखते हैं वह केवल तभी समझ में आता है यदि वे बहुत छोटे हैं। बड़ा होने पर, आपको उन्हें समझने के लिए अन्य ट्रिक्स की आवश्यकता होती है। जैसा कि @SmallChess ने सुझाव दिया है, आप विज़ुअलाइज़िंग और अंडरस्टैंडिंग कन्वर्सेशन नेटवर्क्स नामक इस लेख को पढ़ सकते हैं, जो विशेष रूप से न्यूरल नेटवर्क के मामले के लिए समझाता है, आप सामान को समझने के लिए भार कैसे पढ़ सकते हैं "जैसे इस तस्वीर में एक कार का पता चला है, मुख्य रूप से इसकी वजह से पहियों, घटकों के बाकी नहीं "।

इन विज़ुअलाइज़ेशन ने कई शोधकर्ताओं को वास्तव में अपने तंत्रिका आर्किटेक्चर में कमजोरियों को समझने में मदद की और प्रशिक्षण एल्गोरिदम को बेहतर बनाने में मदद की।


:-) मैंने खुद को गहरे दृढ़ नेटवर्क की तुलना में समझने के लिए कागज को कठिन पाया। बहुत गणित का पेपर है।
हैलोवर्ल्ड

1
क्षमा करें, मैंने गलत लेख का हवाला दिया है :-) मैंने इसे बदल दिया है, यह एक अधिक चित्रमय है, अगर आप जानते हैं कि कैसे काम करता है तो कॉनेट को उलट देने का विचार वास्तव में कठिन नहीं है। उसी तरह, इनपुट स्पेस में किसी विशेष आउटपुट को प्रोजेक्ट करने के लिए Google डीप ड्रीम बैक प्रोपगेशन का उपयोग करता है।
रॉबिन

एक वीडियो है जहां मैट ज़ायलर ने इन विचारों में से कई को उजागर किया है, जिसे Deconconvolution नेटवर्क कहा जाता है
एलेक्स

7

सामान्य रूप से तंत्रिका नेटवर्क को समझना मुश्किल है। आप मॉडल जटिलता के लिए अनुमानित शक्ति का व्यापार करते हैं। हालांकि, यह संभव है कि एनएन वज़न को ग्राफिक रूप से कल्पना करना संभव है, वे आपको यह नहीं बताते हैं कि निर्णय कैसे किया जाता है। सौभाग्य एक गहरे नेटवर्क को समझने की कोशिश कर रहा है।

एक लोकप्रिय पायथन पैकेज है (और इसमें एक पेपर है) जो एनएन को स्थानीय रूप से सरल मॉडल के साथ मॉडल कर सकता है। आप एक नज़र रखना चाह सकते हैं।

https://github.com/marcotcr/lime


1
haha। मुझे पता है कि यह कैसा लगता है। गले : डी
Dawny33

0

https://arxiv.org/abs/1704.02685 एक एनएन विशिष्ट स्थानीय स्पष्टीकरण उपकरण प्रदान करें : गहरी लिफ्ट। यह आपके द्वारा समझाये जाने वाले उदाहरण और संदर्भ उदाहरण के बीच सक्रियण के अंतर को प्रचारित करके काम करता है। एक संदर्भ प्राप्त करना थोड़ा मुश्किल है, लेकिन उपकरण समग्र रूप से व्याख्या योग्य और स्केलेबल प्रतीत होता है। हम इसका उपयोग सारणीबद्ध डेटा पर करते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.