क्या डीप लर्निंग मॉडल को अब व्याख्या योग्य नहीं कहा जा सकता है? क्या नोड्स विशेषताएं हैं?


27

सांख्यिकीय और मशीन लर्निंग मॉडल के लिए, व्याख्या करने के कई स्तर हैं: 1) एल्गोरिथ्म पूरे के रूप में, 2) सामान्य रूप में एल्गोरिथम के 3 भाग) विशेष एल्गोरिथ्म पर एल्गोरिथ्म के कुछ भाग, और ये तीन स्तर प्रत्येक दो भागों में विभाजित होते हैं, एक प्रशिक्षण के लिए और दूसरा समारोह के लिए। पिछले दो भाग पहले की तुलना में बहुत करीब हैं। मैं # 2 के बारे में पूछ रहा हूं, जो आमतौर पर # 3 की बेहतर समझ की ओर जाता है)। (यदि वे नहीं हैं जो 'व्याख्या' का मतलब है तो मुझे क्या सोचना चाहिए? '

जहाँ तक व्याख्या की बात है, लॉजिस्टिक रिग्रेशन व्याख्या करने में सबसे आसान है। इस उदाहरण ने दहलीज को क्यों पारित किया? क्योंकि उस उदाहरण में यह विशेष सकारात्मक विशेषता थी और यह मॉडल में एक बड़ा गुणांक है। यह इतना स्पष्ट है!

एक तंत्रिका नेटवर्क एक मॉडल का क्लासिक उदाहरण है जिसे व्याख्या करना मुश्किल है। उन सभी गुणांक का क्या अर्थ है ? वे सभी ऐसे जटिल पागल तरीकों से जोड़ते हैं कि यह कहना मुश्किल है कि वास्तव में कोई विशेष गुणांक क्या कर रहा है।

लेकिन सभी गहरे तंत्रिका जाल बाहर आने के साथ, ऐसा महसूस होता है कि चीजें स्पष्ट हो रही हैं। डीएल मॉडल (कहने के लिए दृष्टि) शुरुआती परतों में किनारों या अभिविन्यास जैसी चीजों को पकड़ने के लिए लगते हैं, और बाद की परतों में ऐसा लगता है कि कुछ नोड्स वास्तव में अर्थ हैं (लौकिक 'दादी कोशिका' की तरह )। उदाहरण के लिए:

यहाँ छवि विवरण दर्ज करें

( 'लर्निंग अबाउट डीप लर्निंग' से )

यह एक ग्राफिक है ( प्रस्तुति के लिए हाथ से बनाया गया वहाँ से बाहर है ) इसलिए मैं बहुत उलझन में हूं। लेकिन यह सबूत है कि कोई सोचता है कि यह कैसे काम करता है।

हो सकता है कि अतीत में हमें पहचानने योग्य विशेषताओं को खोजने के लिए पर्याप्त परतें नहीं थीं; मॉडल सफल थे, बस विशेष रूप से लोगों का विश्लेषण करने के लिए आसान नहीं था।

लेकिन शायद ग्राफिक सिर्फ इच्छाधारी सोच है। हो सकता है कि एनएन वास्तव में अयोग्य हैं।

लेकिन तस्वीरों के साथ लेबल किए गए उनके नोड्स के साथ कई ग्राफिक्स भी वास्तव में सम्मोहक हैं।

क्या डीएल नोड्स वास्तव में सुविधाओं के अनुरूप हैं?


6
मैं इस प्रश्न का आधार नहीं देखता। यह तंत्रिका जाल अधिक जटिल हो गया है और बेहतर भविष्यवाणियां देता है जो उन्हें किसी भी अधिक व्याख्या योग्य नहीं बनाता है। विपरीत आमतौर पर सच है: जटिलता / बेहतर भविष्यवाणी <-> सादगी / बेहतर व्याख्या।
एडमो

4
@ अदमो बिलकुल सही है। उसके कारण, प्रतिगमन पेड़ (पुनरावर्ती विभाजन) केवल अयोग्य हैं क्योंकि परिणाम गलत हैं । वे गलत हैं क्योंकि वे अस्थिर हैं; एक नया नमूना प्राप्त करें और पेड़ मनमाने ढंग से अलग हो सकता है। और एकल पेड़ भविष्य कहनेवाला भेदभाव के संबंध में प्रतिस्पर्धी नहीं हैं। पारसीमोनी अक्सर भविष्य कहनेवाला भेदभाव का दुश्मन है। और मूल प्रश्न के लिए, बायोमेडिकल क्षेत्र में, AI / ML परिणाम व्याख्या योग्य नहीं हैं।
फ्रैंक हरेल

1
इस लेख को देखें AI शोधकर्ताओं का आरोप है कि मशीन लर्निंग कीमिया विज्ञान है। http://news
माइक हंटर

4
शरीर में बोल्ड प्रश्न और आपके शीर्षक में प्रश्न बहुत अलग हैं। ऐसा लगता है कि सभी जवाब, मेरा सहित, शीर्षक में प्रश्न को संबोधित कर रहे हैं। शायद आप अपने स्वयं के धागे में नोड्स और सुविधाओं के बारे में संकीर्ण सवाल पूछ सकते हैं? लेकिन ऐसा करने से पहले, विचार करें कि आपने पहले से ही एक कागज से जुड़ा हुआ है जो आपके साहसिक प्रश्न का उत्तर देता है, इसलिए विचार करें कि क्या वास्तव में, आप पूछने से पहले एक उत्तर में सीखना चाहते हैं।
साइकोरैक्स का कहना है कि मोनिका

@ साइकोरेक्स मैंने अभी जो लिंक जोड़ा है वह एक ब्लॉग पोस्ट के लिए है, न कि एक पेपर के लिए, और इसलिए मैं सकारात्मक दृष्टिकोण से बहुत उलझन में हूं। मैं डीएल के बारे में जो व्याख्या करता हूं, उसके शीर्षक में मैं पाठ में बोल्ड होने के बारे में विचार करता हूं।
मिच

जवाबों:


30

गहरे मॉडल की व्याख्या अभी भी चुनौतीपूर्ण है।

  1. आपकी पोस्ट में केवल कंप्यूटर विज़न अनुप्रयोगों के लिए सीएनएन का उल्लेख है, लेकिन (गहरे या उथले) फ़ीड-फॉरवर्ड नेटवर्क और आवर्तक नेटवर्क समझने के लिए चुनौतीपूर्ण बने हुए हैं।

  2. CNN के मामले में भी, जिनमें "फ़ीचर डिटेक्टर" संरचनाएँ होती हैं, जैसे कि किनारों और पिक्सेल पैच का ओरिएंटेशन, यह पूरी तरह से स्पष्ट नहीं है कि इन निचले-स्तर की विशेषताओं को कैसे ऊपर की ओर एकत्रित किया जाता है, या क्या, ठीक है, जब ये विज़न फ़ीचर चल रहे हैं एक पूरी तरह से जुड़े परत में एकत्रित होते हैं।

  3. एडवरसैरियल उदाहरण दिखाते हैं कि नेटवर्क की व्याख्या कैसे मुश्किल है। एक प्रतिकूल उदाहरण में इसके लिए कुछ छोटे संशोधन किए गए हैं, लेकिन मॉडल द्वारा किए गए निर्णय में एक नाटकीय बदलाव होता है। छवि वर्गीकरण के संदर्भ में, एक छवि में जोड़ा गया शोर की एक छोटी मात्रा में एक छिपकली की एक छवि को एक अन्य जानवर के रूप में एक उच्च आत्मविश्वास वर्गीकरण हो सकता है, जैसे (प्रजाति का) कुत्ता।

यह इस अर्थ में व्याख्यात्मकता से संबंधित है कि वर्गीकरण निर्णय में शोर (और) (बड़ी) शिफ्ट के बीच एक मजबूत (अप्रत्याशित) संबंध है। यह सोचने के बारे में कि ये नेटवर्क कैसे काम करते हैं, यह कुछ समझ में आता है: पिछली परतों पर संगणना को आगे प्रचारित किया जाता है, ताकि कई त्रुटियां - मानव के लिए छोटी, महत्वहीन त्रुटियां बढ़ जाती हैं और अधिक से अधिक संगणना के रूप में जमा हो जाती हैं। "दूषित" इनपुट।

दूसरी ओर, प्रतिकूल उदाहरणों के अस्तित्व से पता चलता है कि किसी विशेष सुविधा या वर्ग के रूप में किसी भी नोड की व्याख्या मुश्किल है, क्योंकि नोड सक्रिय होने पर मूल छवि की वास्तविक सामग्री के साथ बहुत कम हो सकता है, और यह यह संबंध मूल छवि के संदर्भ में वास्तव में अनुमानित नहीं है। लेकिन नीचे दी गई उदाहरण छवियों में, कोई भी मनुष्य छवियों की सामग्री के बारे में धोखा नहीं देता है: आप एक कुत्ते के लिए ध्वज पोल को भ्रमित नहीं करेंगे। हम इन फैसलों की व्याख्या कैसे कर सकते हैं, या तो कुल मिलाकर (एक छोटा शोर पैटर्न "कुत्ते में छिपकली", या एक कुत्ते में एक फ्लैगपोल) या छोटे टुकड़ों में प्रसारित करता है (कि कई फीचर डिटेक्टर वास्तविक छवि की तुलना में शोर पैटर्न के प्रति अधिक संवेदनशील हैं) सामग्री)?

HAAM एक आशाजनक नई विधि है जो हार्मोनिक कार्यों का उपयोग करके प्रतिकूल छवियां उत्पन्न करती है। ("हार्मोनिक एडवरसरी अटैक मेथड" वेन हेंग, शुचंग झोउ, टिंगटिंग जियांग।) इस पद्धति का उपयोग करके उत्पन्न छवियों का उपयोग प्रकाश / छाया प्रभावों का अनुकरण करने के लिए किया जा सकता है और आमतौर पर मनुष्यों के लिए यह पता लगाने के लिए और भी चुनौतीपूर्ण होता है कि इसे बदल दिया गया है।

एक उदाहरण के रूप में , सीयद-मोहसिन मूसावी-डेज़फूली, अलहुस्सिन फावजी, उमर फावजी और कास्कल फ्रॉस्टर्ड द्वारा " यूनिवर्सल एडवरटाइजिंग पर्टर्बेशन " से ली गई इस छवि को देखें । मैंने इस छवि को सिर्फ इसलिए चुना क्योंकि यह मेरे द्वारा सामने आई पहली प्रतिकूल छवियों में से एक थी। यह छवि स्थापित करती है कि एक विशेष शोर पैटर्न का छवि वर्गीकरण निर्णय पर एक अजीब प्रभाव पड़ता है, विशेष रूप से कि आप एक इनपुट छवि के लिए एक छोटा संशोधन कर सकते हैं और क्लासिफायर का विचार कर सकते हैं कि परिणाम एक कुत्ता है। ध्यान दें कि अंतर्निहित, मूल छवि अभी भी स्पष्ट है: सभी मामलों में, एक मानव यह सोचकर भ्रमित नहीं होगा कि कोई भी गैर-कुत्ते की छवियां कुत्ते हैं। Adversaria

इयान जे। गुडफेलो, जोनाथन श्लेंस और क्रिस्चियन सेजेडी द्वारा एक और विहित पेपर, " एक्सप्लेनिंग एंड हार्नेसिंग एडिशनल एग्जाम " का दूसरा उदाहरण यहां दिया गया है। परिणामी छवि में जोड़ा गया शोर पूरी तरह से अप्रभेद्य है, फिर भी परिणाम बहुत आत्मविश्वास से गलत परिणाम के रूप में वर्गीकृत किया जाता है, पांडा के बजाय एक गिबन। इस मामले में, कम से कम, दो वर्गों के बीच कम से कम एक समान समानता है, क्योंकि गिब्सन और पांडा व्यापक अर्थों में कम से कम कुछ जैविक और सौंदर्यवादी हैं। पांडा

यह तीसरा उदाहरण जोओ मोंटेइरो, जाहिद अख्तर और टियागो एच। फाल्क द्वारा " जनरल-एडवाइज़री एडवरसरी एग्जामिनेशन डिटेक्शन पर आधारित बाय-मॉडल डिसीजन मिसमैच " से लिया गया है। यह स्थापित करता है कि शोर पैटर्न मानव के लिए अविभाज्य हो सकता है फिर भी क्लासिफायरियर को भ्रमित कर सकता है।अविवेच्य

संदर्भ के लिए, एक मडप्यूपी गहरे रंग का जानवर है जिसमें चार अंग और पूंछ होती है, इसलिए यह वास्तव में एक सुनहरी मछली के समान नहीं होता है। mudpuppy

  1. मुझे आज ही यह पेपर मिला। क्रिस्चियन सज़ीदी, वोज्शिएक ज़रेम्बा, इल्या सुतसेवर, जोन ब्रुना, डुमित्रु एर्हान, इयान गुडफेलो, रोब फर्गस। " तंत्रिका नेटवर्क के गूढ़ गुण "। सार में यह पेचीदा उद्धरण शामिल है:

पहले, हम पाते हैं कि यूनिट विश्लेषण के विभिन्न तरीकों के अनुसार व्यक्तिगत उच्च स्तरीय इकाइयों और उच्च स्तरीय इकाइयों के यादृच्छिक रैखिक संयोजनों में कोई अंतर नहीं है। यह बताता है कि यह व्यक्तिगत इकाइयों के बजाय अंतरिक्ष है, जिसमें तंत्रिका नेटवर्क की उच्च परतों में सिमेंटिक जानकारी शामिल है।

इसलिए, उच्च स्तर पर 'फ़ीचर डिटेक्टर' होने के बजाय, नोड्स केवल एक फ़ीचर स्पेस में निर्देशांक का प्रतिनिधित्व करते हैं जो नेटवर्क डेटा को मॉडल करने के लिए उपयोग करता है।


2
अच्छे अंक। लेकिन ध्यान दें कि सबसे सरल मॉडल (लॉजिस्टिक, डिसीजन ट्री) में भी यह अस्पष्ट है कि कोई विशेष गुणांक / थ्रिल्ड ऐसा क्यों है (लेकिन यह वही व्याख्या नहीं है जिसके बारे में मैं पूछ रहा था)। पूरी तरह से असंबंधित नहीं, क्या भाषा / RNN / LSTM के लिए कोई अच्छा प्रतिकूल अध्ययन / उदाहरण हैं?
मिच

7
मैं यह भी कहना चाहूंगा कि लॉजिस्टिक रिग्रेशन जैसे सरल मॉडल भी प्रतिकूल हमलों की चपेट में हैं। वास्तव में, गुडफेलो एट। अल। बताते हैं कि यह उथले मॉडल हैं जिनमें ऐसे हमलों का विरोध करने की क्षमता नहीं है। फिर भी हम अभी भी तर्कवादी प्रतिगमन की व्याख्या करने में सक्षम होने का दावा करते हैं।
श्यामाओ

2
अच्छा जवाब, बिंदु 3 को छोड़कर जो दो कारणों से लूट है। 1) यह बहुत ही कम मामला है कि एक प्रतिकूल छवि है ", एक मानव के लिए, एक असंबद्ध छवि से अप्रभेद्य", जब तक कि मानव में गंभीर दृश्य हानि न हो। लगभग हमेशा आप ध्यान दे सकते हैं कि छवि में कुछ शोर पैटर्न है, विशेष रूप से पृष्ठभूमि में, सौंदर्य से तथाकथित तथाकथित जेपीईजी-शोर (केवल नेत्रहीन: गड़बड़ी के वास्तविक सांख्यिकीय गुण अलग हैं)। क्या आश्चर्य की बात है कि वर्गीकारक अनिश्चित है कि यह एक है कि क्या नहीं है सदाशयी बिल्ली के बजाय, कहते हैं, एक भ्रष्ट 1 /
DeltaIV

2
2 / छवि, लेकिन यह लगभग निश्चित है कि यह एक बस है। 2) व्याख्यात्मकता से संबंधित प्रतिकूल उदाहरण कैसे हैं? रैखिक मॉडल, सामान्यीकृत रैखिक मॉडल और निर्णय वृक्ष भी प्रतिकूल उदाहरणों के लिए अतिसंवेदनशील होते हैं। यह वास्तव में एक प्रतिकूल उदाहरण ढूंढना आसान है जो लॉजिस्टिक को बनाए रखने के बजाय लॉजिस्टिक प्रतिगमन को मूर्ख बनाता है। इसके बावजूद, हम आमतौर पर (G) LM को व्याख्यात्मक मॉडल मानते हैं, इसलिए मैं किसी मॉडल की व्याख्या के साथ प्रतिकूल उदाहरणों के अस्तित्व को नहीं जोड़ूंगा।
डेल्टावी

3
@ डेल्टाइव बिंदु यह नहीं है कि आप शोर को नोटिस नहीं कर सकते। हर jpeg जिसे बहुत ज्यादा नीचा दिखाया गया है, उसमें शोर है। मुद्दा यह है कि डीएनएन को पागल बनाने के लिए शोर में हेरफेर किया जा सकता है, ऐसी चीजें जो मानव पर्यवेक्षक के लिए कोई मतलब नहीं रखती हैं, भले ही शोर खुद देखा जा सकता है।
होंग ओई

13

परतें क्रमिक रूप से अधिक अमूर्त विशेषताओं पर नहीं दिखतीं, जैसा कि हम चाहते हैं। इसे देखने का एक अच्छा तरीका दो बहुत लोकप्रिय आर्किटेक्चर की तुलना करना है।

VGG16 में समसामयिक पूलिंग परत के साथ एक दूसरे के ऊपर खड़ी कई परतें होती हैं - एक बहुत ही पारंपरिक वास्तुकला।

तब से, लोग अवशिष्ट आर्किटेक्चर को डिजाइन करने के लिए आगे बढ़े हैं, जहां प्रत्येक परत न केवल पिछली परत से जुड़ी है, बल्कि एक (या संभवतः अधिक) परतें मॉडल में नीचे की ओर जाती हैं। ResNet ऐसा करने वाले पहले में से एक था, और इसमें लगभग 100 परतें हैं, जो इस बात पर निर्भर करता है कि आप किस संस्करण का उपयोग करते हैं।

जबकि VGG16 और इसी तरह के नेटवर्क में परतें अधिक या कम व्याख्यात्मक तरीके से काम करती हैं - उच्च और उच्च स्तर की विशेषताओं को सीखना, ResNets ऐसा नहीं करते हैं। इसके बजाय, लोगों ने प्रस्तावित किया है कि वे या तो उन्हें अधिक सटीक बनाने के लिए परिष्कृत सुविधाओं को बनाए रखते हैं या वे केवल भेस में उथले नेटवर्क का एक गुच्छा हैं , जिनमें से कोई भी गहरे मॉडल पर "पारंपरिक विचारों" से मेल नहीं खाता है।

जबकि ResNet और इसी तरह के आर्किटेक्चर छवि वर्गीकरण और ऑब्जेक्ट डिटेक्शन में हाथ से निकलने वाले वीजीजी से बेहतर प्रदर्शन करते हैं, लेकिन कुछ अनुप्रयोग प्रतीत होते हैं, जिसके लिए वीजीजी की सरल तल-अप सुविधा पदानुक्रम बहुत महत्वपूर्ण है। अच्छी चर्चा के लिए यहां देखें ।

इसलिए यह देखते हुए कि अधिक आधुनिक आर्किटेक्चर अब तस्वीर में फिट नहीं होते हैं, मैं कहूंगा कि हम यह नहीं कह सकते हैं कि CNN अभी तक व्याख्या योग्य नहीं हैं।


संभवतः एक DL नेटवर्क की पूरी तरह से बिना सोचे-समझे / अनिर्दिष्ट टोपोलॉजी एक बड़ा यादृच्छिक आंशिक रूप से सेट किया गया सेट, इनपुट सेंसर होगा और वांछित फ़ंक्शन को आउटपुट करेगा (यानी, लेयरिंग का कोई प्रयास नहीं है, प्रशिक्षण को यह पता लगाने दें)। यहाँ नोड्स बहुत ही अपमानजनक होंगे। लेकिन इसका मतलब यह नहीं है कि एक टोपोलॉजी को जितना अधिक डिज़ाइन किया गया है, उतनी अधिक संभावना है कि इसकी कुछ व्याख्या हो सकती है?
मिच

3
@ मिच कुछ हालिया आर्किटेक्चर जैसे कि डेंसनेट, हर परत को हर दूसरी परत से जुड़े होने की सीमा की ओर धीरे-धीरे रेंगता हुआ प्रतीत होता है - बहुत हद तक आपके "अनिर्दिष्ट नेटवर्क" की तरह। लेकिन निश्चित रूप से, ResNet और Densenet में VGG16 की तुलना में अधिक परिष्कृत डिज़ाइन है, फिर भी कोई यह कह सकता है कि वे कम व्याख्यात्मक हैं - इसलिए नहीं, मुझे नहीं लगता कि अधिक डिज़ाइन का अर्थ अधिक व्याख्यात्मक है। संभव है, स्पैसर कनेक्शन का अर्थ अधिक व्याख्यात्मक है।
श्यामाओ

7

मेरे पीएचडी शोध प्रबंध का विषय तंत्रिका नेटवर्क के ब्लैक-बॉक्स गुणों को प्रकट करना था, विशेष रूप से एक या दो छिपी परतों के साथ तंत्रिका-नेटवर्क फ़ीड-फॉरवर्ड न्यूरल नेटवर्क।

मैं सभी को समझाने की चुनौती उठाऊंगा कि एक-परत फीड-फॉरवर्ड न्यूरल नेटवर्क में वज़न और पूर्वाग्रह की शर्तों का क्या मतलब है। दो अलग-अलग दृष्टिकोणों को संबोधित किया जाएगा: एक पैरामीट्रिक एक और एक संभाव्य।

xinput=αx+βαβxinput(0,1)

  • 01
  • vv7

इनपुट परत में भार के (निरपेक्ष मूल्य) आकार की व्याख्या करने में सक्षम होने के लिए आपके इनपुट डेटा का ऐसा प्रतिनिधित्व आवश्यक है।

पैरामीट्रिक अर्थ:

  • 0
  • एक छिपे हुए नोड से आउटपुट नोड तक का वजन इंगित करता है कि इनपुट चर का भारित प्रवर्धन जो कि छिपे हुए न्यूरॉन द्वारा सबसे अधिक मात्रा में निरपेक्ष अर्थ में है, जो कि वे विशेष आउटपुट नोड को बढ़ावा या नम करते हैं। वजन का संकेत पदोन्नति (सकारात्मक) या निषेध (नकारात्मक) को इंगित करता है।
  • 132
  • β

1iltsil1Δj,k=∣wi,jwi,kijk

अधिक महत्वपूर्ण छिपे हुए नोड्स एक आउटपुट नोड (फ़्रीक्वेंसी में बात करते हुए, प्रशिक्षण सेट पर) के लिए हैं, जो 'इनपुट वेट टाइम इनपुट फ़्रीक्वेंसीज़' सबसे महत्वपूर्ण हैं? फिर हम फ़ीड-फॉरवर्ड न्यूरल नेटवर्क के मापदंडों के महत्व को बंद करते हैं।

संभाव्य व्याख्या:

xinput

व्यक्तिगत मामला - पैटर्न

xinput[1,0,0,0,0,0,0][0,1,0,0,0,0,0], या किसी भी अन्य कार्यदिवस), और सबसे अधिक संभावना परिणाम बदल जाता है, फिर उस गणना वाले चर का वर्गीकरण के परिणाम पर संभावित प्रभाव पड़ता है।

xinputxinputE(xinputxinput)xinputxinput

गहरी झुकाव - और एनएन मापदंडों का अर्थ

जब कंप्यूटर दृष्टि पर लागू किया जाता है, तो तंत्रिका नेटवर्क ने पिछले दशक में उल्लेखनीय प्रगति दिखाई है। 1989 में LeCunn द्वारा शुरू किए गए दृढ़ तंत्रिका नेटवर्क अंततः छवि मान्यता के मामले में वास्तव में अच्छा प्रदर्शन करने के लिए निकले हैं। यह बताया गया है कि वे अधिकांश कंप्यूटर-आधारित मान्यता दृष्टिकोणों को बेहतर बना सकते हैं।

दिलचस्प आकस्मिक गुण तब दिखाई देते हैं जब वस्तु मान्यता के लिए दृढ़ तंत्रिका नेटवर्क को प्रशिक्षित किया जाता है। छिपी हुई नोड्स की पहली परत निम्न-स्तरीय फीचर डिटेक्टरों का प्रतिनिधित्व करती है, जो स्केल-स्पेस ऑपरेटर टी। लिंडबर्ग के समान है, स्वचालित स्केल चयन, 1998 के साथ फीचर डिटेक्शन । ये स्केल-स्पेस ऑपरेटर्स का पता लगाते हैं

  • लाइनों,
  • कोनों,
  • टी जंक्शनों

और कुछ अन्य बुनियादी छवि सुविधाएँ।

इससे भी अधिक दिलचस्प तथ्य यह है कि स्तनधारी मस्तिष्क में अवधारणात्मक न्यूरॉन्स को (जैविक) छवि प्रसंस्करण के पहले चरणों में काम करने के इस तरीके से मिलता-जुलता दिखाया गया है। इसलिए सीएनएन के साथ, वैज्ञानिक समुदाय इस बात पर विचार कर रहा है कि मानव की धारणा कितनी अभूतपूर्व है। यह आगे अनुसंधान की इस पंक्ति को आगे बढ़ाने के लिए बहुत सार्थक बनाता है।


यह दिलचस्प है - ऐसा लगता नहीं है कि यह सहसंबद्ध सुविधाओं के मामले में बहुत व्याख्या प्रदान करेगा?
खोल

अपेक्षित vallue E (।) को सशर्त वितरण के औसत के रूप में भी जाना जाता है, x_input दिए गए x_- इनपुट, अन्य सभी चर। इसलिए, सहसंबंध पूरी तरह से इस अपेक्षित प्रभाव अवधारणा में शामिल हैं। ध्यान दें कि संभाव्य स्वतंत्रता की 'सहसंबंध' की तुलना में एक व्यापक परिभाषा है - बाद में मुख्य रूप से गाऊसी वितरित डेटा के लिए परिभाषित किया जा रहा है।
मैच मेकर ईई

अच्छा लगा। क्या स्टैक्ड रिग्रेशन मॉडल के एक सेट में लॉजिस्टिक रिग्रेशन की व्याख्या के सामान्यीकरण का यह एक प्रकार है, जो अगले में खिला सकता है?
मिच

छिपे हुए नोड्स का एक सबसेट, आउटपुट न्यूरॉन के लिए तार्किक 'OR' या तार्किक 'AND' की तरह कार्य कर सकता है। या तब होता है जब एक छिपे हुए नोड सक्रियण के कारण आउटपुट न्यूरॉन 1 के करीब हो जाता है। और तब होता है जब केवल छिपे हुए नोड सक्रियण का योग आउटपुट नोड सक्रियण को 1 के करीब होने का कारण बन सकता है। चाहे 'अधिक' या अधिक ' और ', कि आउटपुट नोड में' प्रशंसक 'के प्रशिक्षित वजन वेक्टर पर निर्भर करता है।
मैच मेकर ईई
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.