कैसे कल्पना / समझें कि एक तंत्रिका नेटवर्क क्या कर रहा है?


37

तंत्रिका नेटवर्क को अक्सर उनके जटिल संरचना के कारण "ब्लैक बॉक्स" के रूप में माना जाता है। यह आदर्श नहीं है, क्योंकि यह अक्सर फायदेमंद होता है कि एक मॉडल आंतरिक रूप से कैसे काम कर रहा है। एक प्रशिक्षित तंत्रिका नेटवर्क कैसे काम कर रहा है, यह देखने के तरीके क्या हैं? वैकल्पिक रूप से, हम नेटवर्क के आसानी से पचने योग्य विवरण कैसे निकाल सकते हैं (उदाहरण के लिए यह छिपा हुआ नोड मुख्य रूप से इन इनपुट के साथ काम कर रहा है)?

मुझे मुख्य रूप से दो लेयर फीड-फ़ॉरवर्ड नेटवर्क में दिलचस्पी है, लेकिन गहरे नेटवर्क के लिए समाधान भी सुनना चाहते हैं। इनपुट डेटा या तो दृश्य या गैर-दृश्य प्रकृति में हो सकता है।


1
यहाँ एक अच्छा उदाहरण है: खेल का मैदान।
Tensorflow.org

जवाबों:


12

तंत्रिका नेटवर्क को कभी-कभी "विभेदक फ़ंक्शन सन्निकटन" कहा जाता है। तो आप क्या कर सकते हैं कि किसी भी इकाई को किसी भी अन्य इकाई के संबंध में अंतर करने के लिए यह देखने के लिए कि उनके संबंध क्या हैं।

आप जांच सकते हैं कि नेटवर्क की त्रुटि एक विशिष्ट इनपुट के साथ-साथ इसके लिए कितनी संवेदनशील है।

फिर, "रिसेप्टिव फ़ील्ड्स" नामक कुछ है, जो कि एक छिपे हुए यूनिट में जाने वाले कनेक्शनों का दृश्य है। इससे यह समझना आसान हो जाता है कि छवि डेटा के लिए विशेष इकाइयाँ क्या करती हैं। यह उच्च स्तर के लिए भी किया जा सकता है। डीप नेटवर्क की उच्च-स्तरीय सुविधाओं को विज़ुअलाइज़ करना देखें ।


13

एकल फीचर के हर मूल्य को बेतरतीब ढंग से बढ़ाकर और आपके संपूर्ण फिटनेस फ़ंक्शन को कैसे रिकॉर्ड किया जाता है, इसका अनुमान लगाकर फ़ीचर महत्व का अनुमान लगाएं।

एक्स1,मैं[0,1]आरn(0,1)-0.5आर2

फिर फिटनेस फ़ंक्शन गिरावट द्वारा अपनी सुविधाओं को रैंक करें, और एक सुंदर बार चार्ट बनाएं। समस्या डोमेन के अपने ज्ञान को देखते हुए, कम से कम कुछ सबसे महत्वपूर्ण विशेषताओं को एक आंत-जांच पास करना चाहिए। और यह भी आपको जानकारीपूर्ण सुविधाओं से अच्छी तरह से आश्चर्यचकित होने देता है जो आपने उम्मीद नहीं की होगी।

इस तरह का फीचर महत्व परीक्षण सभी ब्लैक-बॉक्स मॉडल के लिए काम करता है, जिसमें तंत्रिका नेटवर्क और बड़े कार्ट शामिल हैं। मेरे अनुभव में, एक मॉडल वास्तव में क्या कर रहा है, यह समझने में फीचर महत्व पहला कदम है।


1
जवाब के लिए धन्यवाद; यह वास्तव में कुछ ऐसा है जो मैंने किया है और मुझे यह बहुत उपयोगी लगता है। इस सवाल में हालांकि मैं कुछ ऐसा ढूंढ रहा हूं जो नेटवर्क के अंदर दिखता है बजाय इसे ब्लैक बॉक्स के।
rm999

2

यहां एक विशेष प्रकार के तंत्रिका नेटवर्क के लिए एक चित्रमय अंतर्ज्ञान है। उस पोस्ट के अंत में, आर कोड का एक लिंक है जो किसी विशेष समस्या के लिए एक दृश्य दिखाता है। यहाँ ऐसा है जो दिखता है:

यहाँ छवि विवरण दर्ज करें


1

फ़ॉल 2011 मैंने एंड्रयू एनजी द्वारा पढ़ाए गए स्टैंडफोर्ड से मुफ्त ऑनलाइन मशीन लर्निंग कोर्स लिया, और हमने एक तंत्रिका नेटवर्क की कल्पना की जो एक फेस डिटेक्टर था। आउटपुट एक सामान्य चेहरा था। मैं इसे पूर्णता के लिए उल्लेख करना चाहता हूं, लेकिन आपने इस तरह के आवेदन का उल्लेख नहीं किया है, इसलिए मैं विवरण खोदने वाला नहीं हूं। :)


विश्वविद्यालय स्टैनफोर्ड है। मैं वेब पर एंड्रयू एनजी कोर्स पा सकता हूं। मैंने सुना है डिक देवाको तंत्रिका नेटवर्क पर एक व्याख्यान दे रहा है जिसमें दावा किया गया है कि न्यूरॉन्स इसका एक हिस्सा छुपाता है जो वास्तव में चल रहा है। यह नॉनलाइनर क्लासिफायर का सिर्फ एक और प्रकार है और अगर इसे आरेख के परिप्रेक्ष्य से देखने के बजाय, वे यह लिखकर सबसे अच्छी तरह से समझ जाते हैं कि वे बीजगणित क्या करते हैं। मुझे उम्मीद है कि मैं इस अधिकार को याद कर रहा हूं।
बजे माइकल आर। चेरिक

डी वोगो और उंगर, तंत्रिका जाल 1997 का संक्षिप्त परिचय : "तंत्रिका जाल इन दिनों हर जगह लगते हैं, और कम से कम उनके विज्ञापन में वे सब कुछ करने में सक्षम होते हैं जो आंकड़े बिना किसी उपद्रव के कर सकते हैं और कुछ भी करने के लिए परेशान करते हैं। सॉफ्टवेयर का एक टुकड़ा खरीदें। ”
डेविस

0

नीचे दी गई विधि इस लिंक से ली गई है , अधिक विवरण के लिए साइट पर जाएं।

यादृच्छिक छवि से शुरू करें, अर्थात, मनमाने ढंग से पिक्सेल को मान प्रदान करें। "इसके बाद, हम एक फॉरवर्ड पास इस छवि का उपयोग कर एक्स सक्रियण गणना करने के लिए नेटवर्क के लिए इनपुट के रूप में a_i (एक्स) की वजह से एक्स कुछ न्यूरॉन पर मैं कहीं नेटवर्क के बीच में। तब हम एक पिछड़े पास (backprop प्रदर्शन) है नेटवर्क में पहले की सक्रियता के संबंध में a_i (x) के ग्रेडिएंट की गणना करने के लिए । बैकवर्ड पास के अंत में हम ग्रेडिएंट ∂a_i (x) / , x के साथ छोड़ दिए जाते हैं , या प्रत्येक पिक्सेल का रंग कैसे बदलें न्यूरॉन I की सक्रियता को बढ़ाएं । हम ठीक वैसा ही करते हैं जैसा कि उस चित्र में थोड़ा सा αα जोड़कर:

x x x + α⋅∂a_i (x) / x

हम बार-बार ऐसा करते रहते हैं जब तक कि हमारे पास एक छवि x नहीं होती है, जो प्रश्न में न्यूरॉन के उच्च सक्रियण का कारण बनता है। "

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.