मशीन लर्निंग मॉडल को ब्लैक बॉक्स क्यों कहा जाता है?


40

मैं इस ब्लॉग पोस्ट को पढ़ रहा था जिसका शीर्षक था: द फाइनेंशियल वर्ल्ड वॉन्ट्स टू ओपन एआईज़ ब्लैक बॉक्स , जहाँ लेखक बार-बार एमएल मॉडल को "ब्लैक बॉक्स" के रूप में संदर्भित करता है।

एमएल मॉडल का जिक्र करते समय कई स्थानों पर एक समान शब्दावली का उपयोग किया गया है। ऐसा क्यों है?

ऐसा नहीं है कि एमएल इंजीनियरों को पता नहीं है कि एक तंत्रिका जाल के अंदर क्या होता है। प्रत्येक परत का चयन एमएल इंजीनियर द्वारा किया जाता है, यह जानने के लिए कि सक्रियण फ़ंक्शन क्या उपयोग करता है, उस प्रकार की परत क्या करती है, त्रुटि वापस कैसे प्रचारित होती है, आदि।


4
कुछ थोड़ा सूक्ष्म: एमएल इंजीनियर सभी संरचना को जानता है - कितनी परतें, सक्रियण कार्य आदि, जो वे नहीं जानते हैं वह स्वयं वजन है। लेकिन एक एमएल मॉडल अपने वजन से इतना निर्धारित होता है कि वजन के एक विशिष्ट सेट के साथ मॉडल का मूल्यांकन (वर्तमान में) मनुष्यों, यहां तक ​​कि विशेषज्ञ मनुष्यों द्वारा व्याख्या, समझाया या समझा नहीं जा सकता है, जो पूरी तरह से संरचना को समझते हैं।
isaacg

थोड़ा प्रासंगिक: आंकड़े.stackexchange.com/a/297476/100456
मिगेल

3
@ आईजैक - एक एमएल इंजीनियर आसानी से पता लगा सकता है कि वजन क्या है। ब्लैक बॉक्स में यह जानने के लिए ज्यादा कुछ नहीं होता है कि वज़न क्या है और वास्तविक दुनिया में उन वज़न का क्या संबंध है। इसलिए, यह और भी अधिक सूक्ष्म है।
जोश

एक अन्य संबंधित प्रश्न: datascience.stackexchange.com/q/33524/53479
mapto

जवाबों:


51

ब्लैक बॉक्स बात (जब तक दर्शकों के रूप में मानव है) दर्शकों की विशेषज्ञता के स्तर के साथ कोई संबंध नहीं है, लेकिन साथ explainability समारोह मशीन सीखने एल्गोरिथ्म द्वारा मॉडलिंग की।

लॉजिस्टिक रिग्रेशन में इनपुट्स और आउटपुट के बीच बहुत ही सरल संबंध होता है। आप कभी-कभी समझ सकते हैं कि एक निश्चित नमूने को गलत तरीके से सूचीबद्ध क्यों किया गया था (जैसे कि इनपुट वेक्टर के कुछ घटक का मूल्य बहुत कम था)।

वही निर्णय पेड़ों पर लागू होता है: आप पेड़ द्वारा लगाए गए तर्क का पालन कर सकते हैं और समझ सकते हैं कि एक निश्चित तत्व को एक वर्ग या दूसरे को क्यों सौंपा गया था।

हालांकि, गहरे तंत्रिका नेटवर्क ब्लैक बॉक्स एल्गोरिदम के प्रतिमान उदाहरण हैं। कोई नहीं, यहां तक ​​कि दुनिया में सबसे विशेषज्ञ व्यक्ति उस फ़ंक्शन को समझ नहीं पाता है जो वास्तव में एक तंत्रिका नेटवर्क को प्रशिक्षित करके बनाया गया है। इसके बारे में एक अंतर्दृष्टि प्रतिकूल उदाहरणों द्वारा प्रदान की जा सकती है : एक प्रशिक्षण नमूने में कुछ मामूली (और किसी व्यक्ति द्वारा ध्यान देने योग्य) परिवर्तन से नेटवर्क को यह सोचने के लिए प्रेरित किया जा सकता है कि यह पूरी तरह से अलग लेबल से संबंधित है। प्रतिकूल उदाहरण बनाने के लिए कुछ तकनीकें हैं, और उनके खिलाफ मजबूती लाने के लिए कुछ तकनीकें हैं। लेकिन यह देखते हुए कि कोई भी वास्तव में नेटवर्क द्वारा तैयार किए जा रहे फ़ंक्शन के सभी प्रासंगिक गुणों को नहीं जानता है, उन्हें बनाने के लिए एक उपन्यास तरीका खोजना हमेशा संभव होता है।

मनुष्य भी काले बक्से हैं और हम प्रतिकूल उदाहरणों के लिए भी समझदार हैं


2
सिद्धांत रूप में निर्णय पेड़ों के तर्क का पालन किया जा सकता है , लेकिन यह अक्सर व्यावहारिक नहीं है। मैं यह नहीं देखता कि एनएन के साथ मूलभूत अंतर कहां है।
मिगुएल

BTW मैंने उपयोग किया है और उपयोग किए गए टूल की मूल बातें सीखने में विशेषज्ञता / रुचि की कमी के संदर्भ में ब्लैक बॉक्स का उपयोग किया है।
मिगेल

4
"लेकिन यह देखते हुए कि कोई भी वास्तव में नेटवर्क द्वारा मॉडल किए जा रहे फ़ंक्शन को नहीं जानता है"। यह गलत है / खराब है। यदि हमें ठीक से पता नहीं था कि कौन सा फ़ंक्शन मॉडलिंग किया गया था, तो हम न तो उन्हें प्रशिक्षित कर सकते थे और न ही भविष्यवाणी के लिए उनका उपयोग कर सकते थे। हमें पता है कि कौन सा फ़ंक्शन मॉडलिंग किया जाता है। हम (सभी) इसके प्रासंगिक गुणों को नहीं जानते हैं। और फ़ंक्शन जटिल है। लेकिन यह एक बहुत अलग बयान है।
मार्टिन थोमा

1
@MartinThoma सहमत और अद्यतन।
nasasas

1
(+1) लेकिन एक निपिक। लॉजिस्टिक रिग्रेशन क्लास असाइनमेंट नहीं करता है, यह केवल सशर्त संभावनाओं का अनुमान लगाने का प्रयास करता है। ठीक से उपयोग किए जाने वाले वर्गीकरण के पेड़ के साथ डिट्टो। क्लास असाइनमेंट मनुष्यों द्वारा लगाए जाते हैं जिन्हें निर्णय लेने की आवश्यकता होती है, स्वयं एमएल एल्गोरिदम द्वारा नहीं।
मैथ्यू पारा

18

जबकि मैं ज्यादातर बिंदुओं (1) में nasasas उत्तर पर सहमत हूं , मैं कुछ पर अलग होने की भीख माँगता हूँ:

  • निर्णय पेड़ों को ब्लैक बॉक्स मॉडल के रूप में भी इस्तेमाल किया जा सकता है। वास्तव में, मैं कहूंगा कि ज्यादातर मामलों में वे ब्लैक-बॉक्स मॉडल के रूप में उपयोग किए जाते हैं। यदि आपके पास 10,000 सुविधाएँ हैं और 50 की गहराई का पेड़ है तो आप मानव से इसे समझने की अपेक्षा नहीं कर सकते हैं।
  • तंत्रिका नेटवर्क को समझा जा सकता है। कई विश्लेषण तकनीकें हैं ( कुछ के लिए मेरे मास्टर थीसिस के अध्याय 2.5 देखें जो मॉडल में सुधार करने के उद्देश्य से हैं)। विशेष रूप से रोड़ा विश्लेषण (चित्रा 2.10), फ़िल्टर विज़ुअलाइज़ेशन (चित्रा 2.11)। इसके अलावा क्यों मैं ट्रस्ट आप? कागज ( मेरे नोट्स )।

फैंसी रोड़ा विश्लेषण द्वारा एक ब्लैक-बॉक्स मॉडल की भविष्यवाणी को समझाते हुए ("मुझे आप पर भरोसा क्यों करना चाहिए?")। यहाँ छवि विवरण दर्ज करें

मैं माईथोस ऑफ मॉडल इंटरप्रिटैबिलिटी को इंगित करना चाहूंगा । यह संक्षिप्त तरीके से व्याख्या के बारे में कुछ विचार तैयार करता है।

आपका प्रश्न

मशीन लर्निंग मॉडल को ब्लैक बॉक्स क्यों कहा जाता है?

लोग इसका उपयोग कैसे करते हैं : क्योंकि वे समस्या को एक तरह से मॉडल नहीं करते हैं, जो मनुष्यों को सीधे कहने की अनुमति देता है कि किसी भी इनपुट के लिए क्या होता है।

व्यक्तिगत विचार

मुझे नहीं लगता कि "ब्लैक बॉक्स मॉडल" की यह धारणा बहुत मायने रखती है। उदाहरण के लिए, मौसम के पूर्वानुमान के बारे में सोचें। आप किसी भी मानव से यह कहने की उम्मीद नहीं कर सकते कि किस मौसम की भविष्यवाणी की जाएगी यदि उसे केवल डेटा दिया जाए। फिर भी अधिकांश लोग यह नहीं कहेंगे कि भौतिक मौसम मॉडल ब्लैक बॉक्स मॉडल हैं। तो अंतर कहां है? क्या यह केवल तथ्य है कि एक मॉडल डेटा का उपयोग करके उत्पन्न किया गया था और दूसरा एक भौतिकी में अंतर्दृष्टि का उपयोग करके उत्पन्न किया गया था?

जब लोग ब्लैक बॉक्स मॉडल की बात करते हैं, तो वे आमतौर पर कहते हैं कि यह एक बुरी बात है। लेकिन मनुष्य ब्लैक बॉक्स मॉडल भी हैं। मैं यहाँ जो महत्वपूर्ण अंतर देख रहा हूँ, वह यह है कि मनुष्य द्वारा की जाने वाली त्रुटियों का वर्ग मनुष्यों के लिए भविष्यवाणी करना आसान है। इसलिए यह एक प्रशिक्षण समस्या है (एनएन पक्ष पर प्रतिकूल उदाहरण) और एक शिक्षा समस्या (मनुष्य को कैसे एनएन काम करना सिखाता है)।

'ब्लैक-बॉक्स मॉडल' शब्द का उपयोग कैसे किया जाना चाहिए : एक दृष्टिकोण जो मेरे लिए अधिक समझ में आता है वह है समस्या को "ब्लैक बॉक्स समस्या" कहना, जो कि user144410 (+1) के समान है । इसलिए कोई भी मॉडल जो केवल एक ब्लैक बॉक्स के रूप में समस्या का इलाज करता है - इसलिए कुछ ऐसा है जिसमें आप इनपुट डाल सकते हैं और आउटपुट प्राप्त कर सकते हैं - एक ब्लैक बॉक्स मॉडल है। जिन मॉडलों में अंतर्दृष्टि है (न केवल मान!) समस्या के बारे में ब्लैक-बॉक्स मॉडल नहीं हैं। अंतर्दृष्टि हिस्सा मुश्किल है। प्रत्येक मॉडल संभावित फ़ंक्शन पर प्रतिबंध लगाता है जो इसे मॉडल कर सकता है (हां, मुझे सार्वभौमिक सन्निकटन समस्या के बारे में पता है। जब तक आप एक निश्चित आकार के एनएन का उपयोग करते हैं यह लागू नहीं होता है)। मैं कहूंगा कि समस्या के बारे में कुछ अंतर्दृष्टि है यदि आप समस्या को हल किए बिना इनपुट और आउटपुट के संबंध के बारे में कुछ जानते हैं (डेटा को देखे बिना)।

इससे निम्न क्या है:

  • तंत्रिका नेटवर्क गैर-ब्लैकबॉक्स (व्हाइटबॉक्स) हो सकते हैं?
  • लॉजिस्टिक रिग्रेशन एक ब्लैक-बॉक्स मॉडल हो सकता है।
  • यह समस्या के बारे में अधिक है और इसके बारे में आपकी अंतर्दृष्टि, मॉडल के बारे में कम है।

1
धन्यवाद। आपका जवाब हमेशा एक खुशी :) पढ़ने के लिए कर रहे हैं
Dawny33

1
आपका स्वागत है :-) और अच्छे शब्दों के लिए धन्यवाद :-) कृपया अपने प्रश्न का उत्तर नमक के एक दाने के साथ दें। मैं इसके बारे में निश्चित नहीं हूं। मुझे नहीं लगता कि कोई निश्चित उत्तर है क्योंकि लोग इस शब्द का उपयोग बिना परिभाषा के करते हैं। तो एक तरफ लोगों के बीच उपयोग की संभावना अलग है और दूसरी तरफ किसी भी व्यक्ति का उपयोग हमेशा उसी तरह नहीं किया जा सकता है।
मार्टिन थॉमा

7

यह मॉडल की व्याख्या और व्याख्या करने के लिए नीचे आता है। एक सरल मॉडल के आउटपुट को देखते हुए, यह पहचानना संभव है कि प्रत्येक इनपुट मॉडल आउटपुट में कैसे योगदान देता है, लेकिन यह अधिक कठिन हो जाता है क्योंकि मॉडल अधिक जटिल हो जाते हैं। उदाहरण के लिए प्रतिगमन के साथ आप गुणांक को इंगित कर सकते हैं, एक निर्णय वृक्ष के साथ आप विभाजन को पहचान सकते हैं। और इस जानकारी के साथ, आप मॉडल व्यवहार की व्याख्या करने के लिए नियम प्राप्त कर सकते हैं।

हालाँकि, जैसे-जैसे मॉडल मापदंडों की संख्या बढ़ती है, यह स्पष्ट करना कठिन होता जाता है कि इनपुट का संयोजन अंतिम मॉडल आउटपुट की ओर क्या बढ़ाता है, या मॉडल के व्यवहार से नियमों को प्राप्त करता है। वित्तीय उद्योग में कहें जब सीओओ आता है और पूछता है 'तो, क्यों आपके उच्च आवृत्ति व्यापार ने अर्थव्यवस्था को तोड़ दिया', वह यह नहीं सुनना चाहता कि यह कैसे बनाया गया था, बस इसने उसे दिवालिया क्यों भेजा। यह निर्दिष्ट करना संभव होगा कि मॉडल का निर्माण कैसे किया गया था, लेकिन यह स्पष्ट करना संभव नहीं हो सकता है कि इनपुट के रूप में मॉडल को प्राप्त कारकों के संयोजन से आउटपुट के लिए क्या हुआ, और यही कारण है कि लोग ब्लैक बॉक्स के बारे में बात कर रहे हैं।


5

ब्लैक बॉक्स मॉडल किसी भी गणितीय मॉडल को संदर्भित करते हैं जिनके समीकरण किसी भी भौतिक / वैज्ञानिक कानूनों पर निर्भर किए बिना यथासंभव सामान्य और लचीले होने के लिए चुने जाते हैं।

ग्रे बॉक्स मॉडल गणितीय मॉडल हैं जहां समीकरणों (गणितीय फ़ंक्शन) का हिस्सा भौतिक ज्ञात कानूनों से आता है लेकिन शेष भाग को अस्पष्टीकृत भाग के लिए क्षतिपूर्ति करने के लिए सामान्य कार्य माना जाता है।

व्हाइट बॉक्स मॉडल गणितीय मॉडल हैं जो पूरी तरह से भौतिक नियमों और प्रणाली की समझ पर निर्मित होते हैं, उदाहरण के लिए यांत्रिक गति कानून (विमान का मॉडल .. आदि)

देखें: https://en.wikipedia.org/wiki/Mathematical_model#A_priori_information


दिलचस्प परिभाषा! कुछ उदाहरणों के माध्यम से चलें: लॉजिस्टिक रिग्रेशन, एसवीएम, एनएन, डीकेशन ट्री सभी ब्लैक बॉक्स मॉडल हैं। संदर्भ के आधार पर, बायेसियन मॉडल सभी तीन श्रेणियों में हो सकते हैं। मौसम के मॉडल सफेद बॉक्स या ग्रे बॉक्स मॉडल हैं।
मार्टिन थोमा

मैं इस जवाब से असहमत हूं। आप भौतिक सिद्धांत के आधार पर अनुभवजन्य मॉडल और मॉडल के बीच अंतर खींच रहे हैं। हालाँकि, या तो मॉडल का प्रकार सफेद या काला बॉक्स हो सकता है, यह इस बात पर निर्भर करता है कि यह कैसे पैक किया गया है।
ब्रायन बॉर्चर्स

ब्लैक बॉक्स शब्द अंतर्निहित 'सही' प्रणाली को संदर्भित करता है और मॉडल संरचना चयन समस्या से संबंधित है।
user144410

"आधुनिक शब्द" ब्लैक बॉक्स "को 1945 के आसपास अंग्रेजी भाषा में प्रवेश किया गया लगता है। इलेक्ट्रॉनिक सर्किट सिद्धांत में स्थानांतरण कार्यों से नेटवर्क संश्लेषण की प्रक्रिया, जिसके कारण इलेक्ट्रॉनिक सर्किट को" ब्लैक बॉक्स "के रूप में माना जाता है, जो संकेतों पर उनकी प्रतिक्रिया की विशेषता है। उनके बंदरगाहों के बारे में विल्हेम काऊर से पता लगाया जा सकता है, जिन्होंने 1941 में अपने सबसे विकसित रूप में अपने विचारों को प्रकाशित किया था ... "स्रोत: en.wikipedia.org/wiki/Black_box#History
user144410

4

एक ब्लैक बॉक्स, जैसा कि आप जानते हैं, एक फ़ंक्शन को संदर्भित करता है जहां आप इनपुट और आउटपुट के हस्ताक्षर जानते हैं, लेकिन यह नहीं जान सकते कि यह इनपुट से आउटपुट कैसे निर्धारित करता है।

इस मामले में गलत तरीके से शब्द का उपयोग किया जा रहा है। यह एमएल मॉडल को जानने और समझने की लेखक / लेखक की इच्छा या क्षमता से परे हो सकता है, लेकिन इसका मतलब यह नहीं है कि यह दूसरों की इच्छा या क्षमता से परे है। प्रत्येक एमएल मॉडल बनाने वाले इंजीनियर ठीक से जानते हैं कि यह कैसे काम करता है और इच्छानुसार पेड़ को खींच सकता है और इसे चल सकता है। सिर्फ इसलिए कि कोई व्यक्ति बहुत आलसी हो सकता है या ऐसा करने में थोड़ा समय लग सकता है, इसका मतलब यह नहीं है कि जानकारी उपभोग के लिए आसानी से उपलब्ध नहीं है।

एमएल मॉडल ब्लैक बॉक्स नहीं हैं, वे स्पष्ट बॉक्स हैं जो अभी बहुत बड़े हैं।


3

एमएल इंजीनियरों को पता नहीं है कि तंत्रिका जाल के अंदर क्या होता है

आपको विरोधाभास करने के लिए क्षमा करें, लेकिन यह सच है। वे जानते हैं कि तंत्रिका नेटवर्क कैसे सीखते हैं, लेकिन वे नहीं जानते कि किसी भी दिए गए तंत्रिका नेटवर्क ने क्या सीखा है। तंत्रिका नेटवर्क द्वारा सीखा गया तर्क कुख्यात है।

मशीन लर्निंग का उपयोग करने की बात आमतौर पर उन नियमों को सीखने के लिए होती है जो प्रोग्रामर या डोमेन विशेषज्ञ नहीं सोचते होंगे। यह पता लगाना मुश्किल है।

यह एक पारंपरिक कंप्यूटर प्रोग्राम के अनुरूप है जिसमें एक अक्षर चर नाम, कोई टिप्पणी नहीं, कोई स्पष्ट संरचना नहीं है, अस्पष्ट गणित का उपयोग कर, और सभी जो अब मर चुके हैं। आप डिबगर में इसके माध्यम से कदम रख सकते हैं, लेकिन यह अभी भी स्पष्ट नहीं है कि यह कैसे काम करता है।

शायद ही, कोई व्यक्ति यह पता लगाने के लिए परेशानी लेता है कि एक तंत्रिका नेटवर्क क्या करता है। उदाहरण के लिए, एन-क्वैंस समस्या पर प्रशिक्षित तंत्रिका नेटवर्क का विश्लेषण करके मिनी -संघर्ष एल्गोरिथ्म की खोज की गई थी । लेकिन यह बहुत काम की चीज है।


कुछ रैखिक तरीकों पर भी यही कहा जा सकता है, उदाहरण के लिए, पीसीए, डीएल में सिर्फ सूत्र अधिक जटिल है।
मिगेल

3

प्रश्न में उद्धृत ब्लॉग पोस्टिंग में, चर्चा इस तथ्य के बारे में है कि वित्त में मशीन लर्निंग मॉडल विकसित करने वाले विशेषज्ञ अपने ग्राहकों को समझा नहीं सकते हैं (मशीन सीखने में कोई प्रशिक्षण नहीं देने वाले फाइनेंसर) मॉडल कैसे निर्णय लेता है जो वह करता है ।

यह उन मॉडलों के बीच एक अंतर लाता है जो वास्तव में गुप्त होने के कारण ब्लैक बॉक्स हैं (जैसे गुणांक एक छेड़छाड़ सबूत FPGA में एन्कोडेड हैं) और खुले हुए मॉडल (इस अर्थ में कि गुणांक ज्ञात हैं, लेकिन एक के लिए समझ में नहीं आते हैं) विशेष रूप से दर्शक

यह बाद का "ब्लैक बॉक्स" समस्याग्रस्त है क्योंकि ग्राहक खुद को आश्वस्त करना चाहते हैं कि आपके द्वारा बनाए गए मॉडल का "चेहरा वैधता है।" अन्य प्रकार के मॉडल जैसे कि लॉजिस्टिक रिग्रेशन के साथ, गुणांक को देखना और यह जांचना अपेक्षाकृत आसान है कि उनके पास अपेक्षित प्लस या माइनस संकेत हैं- यहां तक ​​कि गणितीय अनपढ़ एमबीए भी इसे समझ सकते हैं।


2

मशीन लर्निंग को सही तरीके से ब्लैक बॉक्स माना जा सकता है, तंत्रिका नेटवर्क का उपयोग कर XOR समस्या के समाधान को मॉडल किया जा सकता है लेकिन जैसे-जैसे इनपुट की संख्या बढ़ती है, वैसे-वैसे जटिलता और आयाम भी बढ़ते जाते हैं। यदि यह समझने और समझाने के लिए बहुत जटिल है, तो यह एक ब्लैक बॉक्स है, चाहे हम परिणामों की गणना कर सकते हैं या नहीं

हम केवल 3 आयामों तक ही उन्हें देख सकते हैं, लेकिन यह पर्याप्त है क्योंकि हम 3 डी मॉडल के संदर्भ में एक बिंदु के रूप में उच्च आयामों तक इसे अलग कर सकते हैं। हम स्थानीय न्यूनतम और साथ ही डेटासेट के कुछ हिस्सों की कल्पना कर सकते हैं जो आंशिक रूप से सीखे जाते हैं।

मैंने कुछ समय के लिए विचार के साथ खिलवाड़ किया है और इसलिए मैंने काम पर तंत्रिका नेटवर्क के एनिमेशन का निर्माण किया और तंत्रिका नेटवर्क की मेरी समझ में सुधार किया। मैंने 1 और 2 छिपी हुई परतों (3 जी ज्यादातर काम किया है) के साथ एनिमेशन का उत्पादन किया है और वे डेटा कैसे सीखते हैं।

एनीमेशन धीमा है और ऊपरी परतों को दिखाने वाला शीर्ष दायां एनीमेशन देखने लायक है, आप Youtube पर एनिमेशन को गति दे सकते हैं यदि आप चाहें, तो नीले और लाल जाल के साथ शीर्ष दाएं एनीमेशन में महत्वपूर्ण बदलाव देखे जा सकते हैं 3:20 ऑरेंज और 6 मिनट पर लाल जाल और 8:20 पर नीला, नारंगी और लाल जाल। वजन में बदलाव की दिशा स्पष्ट रूप से नीचे बाएं एनीमेशन में है

https://www.youtube.com/watch?v=UhQJbFDtcoc


1

मुझे लगता है कि ब्लैक बॉक्स अवधारणा का उपयोग इस तरह से किया जाता है, जो सॉफ्टवेयर और हार्डवेयर गुणवत्ता आश्वासन में ब्लैक बॉक्स परीक्षण से उत्पन्न होता है । यह तब होता है जब आप या तो चयन नहीं करते / या देख भी नहीं सकते हैं और जो आप परीक्षण कर रहे हैं उसके आंतरिक कार्य को देख सकते हैं। यह एक कारण हो सकता है कि यह होगा

  1. इसमें अव्यवहारिक या असंभव है (यह एक सीलन भरे माहौल में है और हम आसानी से इस पर गौर नहीं कर सकते) - लेकिन यह अच्छी तरह से हो सकता है

  2. क्योंकि भद्दा परीक्षण लिखने का एक बड़ा मौका है अगर कोई अंदर देख सकता है। (पास या बिना इरादे) का बड़ा जोखिम "पास करने के लिए डिज़ाइन किए गए परीक्षण लेखन"।

परीक्षण की जा रही चीज को फिट करने के लिए परीक्षण लिखना, वास्तव में कुछ भी खोजने की संभावना कम करना।

यह एक कुशल सिग्नल इंजीनियर के लिए एक तंत्रिका नेटवर्क के आंतरिक कामकाज में झाँकने और यह जाँचने के लिए पूरी तरह से संभव होगा कि किसी विशेष प्रशिक्षण अनुक्रम में किन विशेषताओं का चयन किया जा रहा है।


-1

ब्लैक बॉक्स के तरीकों को "बिना बताए" को समझाना मुश्किल है। वित्त या अन्य क्षेत्रों में कोई भी प्रतिगमन या निर्णय पेड़ों की मूल बातें समझ सकता है। समर्थन वेक्टर मशीन हाइपरप्लेन और न्यूरल नेटवर्क सिग्मॉइड फ़ंक्शन के बारे में बात करना शुरू करें और आप अधिकांश दर्शकों को खो देंगे

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.