तंत्रिका नेटवर्क छवियों को कैसे पहचानता है?


25

मैं यह जानने की कोशिश कर रहा हूं कि न्यूरल नेटवर्क छवि मान्यता पर कैसे काम करता है। मैंने कुछ उदाहरण देखे हैं और अधिक भ्रमित हो गया हूं। 20x20 छवि के अक्षर पहचान के उदाहरण में, प्रत्येक पिक्सेल का मान इनपुट परत बन जाता है। तो 400 न्यूरॉन्स। फिर न्यूरॉन्स और 26 आउटपुट न्यूरॉन्स की एक छिपी हुई परत। फिर नेटवर्क को प्रशिक्षित करें, और फिर यह सही नहीं है।

तंत्रिका नेटवर्क के बारे में मुझे क्या उलझन है, यह कैसे पता चलता है कि एक छवि में क्या है। आपको थ्रॉल्डिंग, या विभाजन, या माप करने की आवश्यकता नहीं है, किसी तरह नेटवर्क छवियों की तुलना करना और पहचानना सीखता है। यह मेरे लिए अब जादू जैसा है। तंत्रिका नेटवर्क सीखना कहाँ से शुरू करें?


1
अगर मैं सही ढंग से समझूं, तो एक तंत्रिका नेटवर्क कुछ अमूर्त अंतरिक्ष में सिर्फ एक बहुआयामी सतह है, जो स्थानीय चरम सीमा संभव विकल्पों को जन्म देती है। एक तंत्रिका नेटवर्क को पढ़ाना इस अमूर्त सतह को उसके कार्य में समायोजित कर रहा है। यह मेरी स्पष्ट समझ है।

तो आप एनएन के साथ काम शुरू करने के लिए स्पष्टीकरण या संसाधन चाहते हैं? यह स्पष्ट करना अच्छा होगा।

2
वहाँ (वर्तमान में) एक अच्छा पाठ्यक्रम है जो आपके प्रश्न के लिए समर्पित है। coursera.org/course/neuralnets
pat

कौरसेरा एनएन वर्ग ऐसा लगता है कि यह उन्नत होगा, एक परिचय के रूप में इतना अच्छा नहीं है। एंड्रयू एनजी के कुछ और कोमल परिचय हैं, जिन्हें आप उदाहरण के लिए, Youtube पर देख सकते हैं।
डगलस जेरे

दरअसल, कौरसेरा कोर्स उन्नत होता है, लेकिन यह निश्चित रूप से निर्मित होता है और ओपी के प्रश्न का काफी अच्छी तरह से उत्तर देगा। अंकों की मान्यता में भी इसके बहुत से उदाहरण हैं।
क्रिस ए।

जवाबों:


24

1980 के दशक में प्रोफेसर कुनिहिको फुकुशिमा के काम पर अध्ययन करते समय एक तंत्रिका नेटवर्क कैसे कुछ जटिल को इमेज डेटा के रूप में जटिल के रूप में वर्गीकृत करने के लिए सीख सकता है, और सही उत्तर मेरे पास आए। केवल अपने नेटवर्क को छवियों का एक गुच्छा दिखाने के बजाय, और बैक-प्रचार का उपयोग करके इसे अपने आप में चीजों को बताने के लिए, उन्होंने एक अलग दृष्टिकोण लिया और अपने नेटवर्क परत को परत द्वारा और यहां तक ​​कि नोड द्वारा नोड को प्रशिक्षित किया। उन्होंने नेटवर्क के प्रत्येक अलग-अलग नोड के प्रदर्शन और संचालन का विश्लेषण किया और जानबूझकर उन हिस्सों को संशोधित किया ताकि वे इच्छित तरीकों से प्रतिक्रिया कर सकें।

उदाहरण के लिए, वह जानता था कि वह नेटवर्क को लाइनों को पहचानने में सक्षम होना चाहता था, इसलिए उसने तीन पिक्सेल क्षैतिज रेखाओं, 3 पिक्सेल ऊर्ध्वाधर लाइनों और सभी कोणों पर विकर्ण लाइनों के विशिष्ट रूपों को पहचानने के लिए विशिष्ट परतों और नोड्स को प्रशिक्षित किया। ऐसा करने से, वह जानता था कि वांछित पैटर्न मौजूद होने पर नेटवर्क के किन हिस्सों को आग में गिना जा सकता है। फिर, चूंकि प्रत्येक परत अत्यधिक जुड़ा हुआ है, एक पूरे के रूप में पूरे neocognitron छवि में मौजूद प्रत्येक समग्र भागों की पहचान कर सकता है, चाहे वे भौतिक रूप से मौजूद हों। इसलिए जब एक विशिष्ट रेखा खंड छवि में कहीं मौजूद होता है, तो हमेशा एक विशिष्ट नोड होगा जो आग लगाएगा।

इस तस्वीर को कभी भी मौजूद रखते हुए, रैखिक प्रतिगमन पर विचार करें जो कि चुकता त्रुटि के योग के माध्यम से बस एक सूत्र (या एक रेखा) ढूंढ रहा है, जो आपके डेटा के माध्यम से सबसे निकट से गुजरता है, यह समझना काफी आसान है। घुमावदार "लाइनों" को खोजने के लिए हम उत्पादों की गणना का एक ही योग कर सकते हैं, सिवाय इसके कि अब हम x ^ 2 या x ^ 3 या उससे भी उच्च क्रम के बहुपदों के कुछ मापदंडों को जोड़ते हैं। अब आपके पास लॉजिस्टिक रिग्रेशन क्लासिफायर है। यह क्लासिफायरर उन रिश्तों को पा सकता है जो प्रकृति में रैखिक नहीं हैं। वास्तव में लॉजिस्टिक रिग्रेशन ऐसे रिश्तों को व्यक्त कर सकता है जो मनमाने ढंग से जटिल होते हैं, लेकिन आपको डेटा की भविष्यवाणी करने के लिए एक अच्छा काम करने के लिए अभी भी मैन्युअल रूप से सही संख्या में बिजली सुविधाओं का चयन करने की आवश्यकता है।

तंत्रिका नेटवर्क के बारे में सोचने का एक तरीका यह है कि अंतिम परत को लॉजिस्टिक रिग्रेशन क्लासिफायर के रूप में माना जाए , और फिर छिपी हुई परतों को स्वचालित "सुविधा चयनकर्ताओं" के रूप में सोचा जा सकता है । यह इनपुट सुविधाओं की सही संख्या और शक्ति का चयन करने के कार्य को समाप्त कर देता है। इस प्रकार, एनएन एक स्वचालित बिजली सुविधा चयनकर्ता बन जाता है और किसी भी रैखिक या गैर-रैखिक संबंध का पता लगा सकता है या मनमाने ढंग से जटिल सेटों के एक वर्गीकरण के रूप में काम कर सकता है ** (यह केवल यह मानता है कि जटिलता की जटिलता का प्रतिनिधित्व करने के लिए पर्याप्त छिपी हुई परतें और कनेक्शन हैं। जिस मॉडल को यह सीखने की जरूरत है)। अंत में, एक अच्छी तरह से काम कर रहे एनएन से इनपुट और आउटपुट के बीच न केवल "संबंध" सीखने की उम्मीद है, बल्कि इसके बजाय हम एक अमूर्त या एक मॉडल के लिए प्रयास करते हैं जोअच्छी तरह से सामान्य करता है

अंगूठे के एक नियम के रूप में, तंत्रिका नेटवर्क कुछ भी नहीं सीख सकता है एक बुद्धिमान मानव सैद्धांतिक रूप से एक ही डेटा से पर्याप्त समय नहीं दे सकता है, हालांकि,

  • यह किसी दिन अभी तक किसी को पता नहीं चल सका है
  • बड़ी समस्याओं के लिए कंप्यूटर का एक बैंक जो तंत्रिका नेटवर्क को संसाधित करता है, वास्तव में लोगों की एक टीम (बहुत कम लागत पर) की तुलना में बहुत अच्छे समाधान पा सकता है।
  • एक बार प्रशिक्षित एनएन उन इनपुट के साथ कंसंटेंट परिणाम तैयार करेंगे, जिन पर उन्हें प्रशिक्षण दिया गया है और यदि उन्हें ठीक से ट्विक किया गया है, तो उन्हें अच्छी तरह से सामान्य करना चाहिए
  • एनएन कभी ऊब या विचलित नहीं होता है

1
+1 के बारे में पैराग्राफ के लिए कि छिपी हुई परत के फीचर चयन के शीर्ष पर अंतिम परत लॉजिस्टिक रिग्रेशन कैसे करती है। यह एनएन के बारे में सोचने का एक अच्छा तरीका है।
jlund3

धन्यवाद, लेकिन मुझे स्पष्ट करना चाहिए कि मैं बिल्कुल नहीं कह रहा हूं कि प्रत्येक एएनएन की अंतिम परत वास्तव में एक लॉजिस्टिक रिग्रेशन परत है, लेकिन केवल यही एक संभव कॉन्फ़िगरेशन है जो कई समस्याओं को हल कर सकता है। ज्यादातर यादृच्छिक तरीके से हम आम तौर पर एएनएन को प्रशिक्षित करते हैं, इसके परिणामस्वरूप किसी भी परिणामी प्रतिगमन को बहुत ही यादृच्छिक तरीके से कई नोड्स और परतों में फैलाया जाता है। कोई व्यक्ति विशिष्ट तरीकों से प्रतिक्रिया करने के लिए उप-नेटवर्क को प्रशिक्षित कर सकता है और फिर एक प्रतिगमन परत में उन लोगों के उत्पादन को पंप कर सकता है जो विशेष समस्याओं के लिए शिल्प विशेष नेटवर्क को हाथ लगाते हैं। स्मृति और गति में एएनएन को अत्यधिक कुशल बनाना।
mcstar

1
इस जवाब पर विचार हो रहे हैं, इसलिए मैंने सोचा कि मैं यह बताता हूं कि यह अब 5 साल से अधिक पुराना है, और केवल पूरी तरह से जुड़े नेटवर्क को आगे बढ़ाने के लिए विचार करता है। यद्यपि यहां वैचारिक अंतर्दृष्टि अभी भी मान्य हैं, वे चिकित्सक को गहरी एनएन अवधारणाओं को समझने के लिए पर्याप्त नहीं देते हैं जो पिछले दशक में मानक बन गए हैं। CNN (कन्वेक्शन न्यूरल नेटवर्क) एक बहुत ही महत्वपूर्ण आधुनिक अनुकूलन है जो कि किनारों, कंट्रास्ट, शार्पनेस, कलर स्पेस, शैडो और अधिक का पता लगाने की अनुमति देकर गहरी नेटवर्क सुपर पावर देता है और निम्न स्तर की सुविधाओं के संदर्भ को निर्धारित करने के लिए इसका उपयोग करता है।
mcstar

10

आपने सुना होगा कि तंत्रिका नेटवर्क " सार्वभौमिक फ़ंक्शन सन्निकटन " हैं। संक्षेप में, साइबेंको प्रमेय का कहना है कि किसी भी फ़ंक्शन को वास्तविक से मानचित्रण करने के लिए, आप इसे सिग्मॉइड सक्रियण कार्यों के साथ एक तंत्रिका नेटवर्क के साथ अनुमानित कर सकते हैं। वास्तव में, यह पता चलता है कि तंत्रिका नेटवर्क आपको किसी भी फ़ंक्शन की गणना करने की अनुमति देता है जो कि ट्यूरिंग मशीन द्वारा गणना की जाती है (यानी कुछ भी आप गणना करने के लिए एक एल्गोरिथ्म लिख सकते हैं)। दुर्भाग्य से, ये प्रमाण केवल यह कहते हैं कि न्यूरॉन्स और भार के कुछ परिमित विन्यास के लिए, आप किसी भी फ़ंक्शन का अनुमान लगा सकते हैं।

सिद्धांत सभी अच्छा और बांका है, लेकिन आपका सवाल यह है कि वास्तव में न्यूरॉन्स और वेट के एक सेट में कुछ फ़ंक्शन की गणना को कैसे समझाया जाए, इसकी तर्ज पर अधिक लगता है। उदाहरण के लिए, एक साधारण उदाहरण पर विचार करें - अनन्य-या। XOR दो इनपुट लेता है, उन इनपुट को पास करता है। जब एक और केवल एक इनपुट सक्रिय होता है, तो आउटपुट नोड सक्रिय होता है। दोनों के साथ या कोई भी इनपुट सक्रिय नहीं है, तो आउटपुट नोड सक्रिय नहीं है।

एक तीन परत पर्सेप्ट्रोन नेट जो विकिपीडिया से उधार एक्सओआर की गणना करने में सक्षम है।

ध्यान दें कि तीन छिपे हुए नोड्स अलग-अलग चीजें करते हैं। बाएं और दाएं सबसे बाएं नोड्स केवल सम्मान इनपुट नोड्स सक्रियण से गुजरते हैं। मध्य न्यूरॉन दो आदानों को लेता है और किसी तरह उन्हें नकार देता है यदि वे दोनों हैं। इनपुट के इस चतुर संयोजन और पुनर्संयोजन अनिवार्य रूप से एक तंत्रिका नेटवर्क में कैसे काम किया जाता है।

स्पष्ट रूप से अधिक जटिल कार्यों के लिए संयोजन और पुनर्संयोजन को अधिक चतुर और जटिल तरीकों से किया जाना चाहिए, लेकिन यह संक्षेप में है कि निम्न स्तर पर क्या होता है। पागल बात यह है कि यह वास्तव में किसी भी कम्प्यूटेशनल फ़ंक्शन की गणना करने की आवश्यकता है! तो फिर, ट्यूरिंग मशीनें भी भ्रामक रूप से सरल हो जाती हैं ...

समस्या यह है कि हमारे पास वास्तव में तंत्रिका नेटवर्क को उत्पन्न करने का एक तरीका नहीं है जो कुछ मनमाने फ़ंक्शन की गणना करता है। प्रमाण केवल हमें बताते हैं कि वहाँ कुछ नेटवर्क है जो यह कर सकता है। जब हम अपने तंत्रिका नेटवर्क को प्रशिक्षित करते हैं, तो हम बस एक नेटवर्क खोजने की कोशिश कर रहे हैं जो बहुत करीब है।

छवि मान्यता के संदर्भ में, आप नेटवर्क में एन्कोडिंग पैटर्न की कल्पना कर सकते हैं। उदाहरण के लिए, संख्या '1' को पहचानने के लिए, आप एक छिपे हुए नोड की कल्पना कर सकते हैं, जो कि पिक्सेल के एक स्तंभ की अपेक्षा करता है, जिसमें अधिकतर या सभी सक्रिय होते हैं, जिसमें पड़ोसी पिक्सेल बंद होते हैं। यह छिपा नोड उस विशेष कॉलम में एक सीधी रेखा को पहचानने में काफी अच्छा हो सकता है। इनमें से पर्याप्त को एक साथ रखो और बहुत जल्द ही आपको नोड्स का एक गुच्छा मिला है जो आपकी छवि के पर्याप्त स्थानों में ऐसा करता है कि अगर मैं नेटवर्क को एक दिखाता हूं, तो पर्याप्त सीधी रेखा छिपा नोड सक्रिय हो जाएगा, जो '1' का संकेत देता है। पाठ्यक्रम की समस्या नेटवर्क को सामान्य बनाने की है ताकि यह विभिन्न प्रकार के इनपुट को पहचान सके।

उम्मीद है कि यह आपको कम या ज्यादा समझने में मदद करता है कि तंत्रिका नेटवर्क कैसे संगणना कर सकता है। हालांकि, आपने एक ऐसे बिंदु पर मारा है जो तंत्रिका नेटवर्क के बारे में महत्वपूर्ण है: सामान्य तौर पर यह समझना मुश्किल है कि नेटवर्क किसी विशेष आउटपुट को क्यों थूकता है, खासकर जब आप मानते हैं कि छवि मान्यता जैसी किसी चीज के लिए, नेटवर्क आमतौर पर होते हैं इतना बड़ा कि मनुष्य के पास मशीन के चलने वाले हिस्सों में से प्रत्येक को समझने में कठिन समय है। इस मामले को और उलझाते हुए कि सामान्य रूप से अधिकांश तंत्रिका नेटवर्क में वास्तव में प्रत्येक छोटी सुविधा के लिए एक छिपा हुआ नोड नहीं होता है जो नेटवर्क डेटा के बारे में सीख सकता है। इसके बजाय, संख्या 1 को वर्गीकृत करने के लिए एक सीधी रेखा की तरह कुछ का पता लगाना कई छिपे हुए नोड्स पर गैर-केंद्रीकृत तरीके से होगा। अन्य एल्गोरिदम,

यदि आप अधिक पढ़ने की तलाश कर रहे हैं, तो मैं अति जंक पर इस ट्यूटोरियल के माध्यम से पढ़ने की सलाह देता हूं । यह आपको बताता है कि कैसे एक तंत्रिका नेटवर्क काम करता है और यहां तक ​​कि एक लक्ष्य की ओर एक टैंक ड्राइव करने के लिए तंत्रिका नेटवर्क प्राप्त करने के लिए एक सरल कोड उदाहरण देता है। ट्यूटोरियल हालांकि बैकप्रॉपैगैशन को कवर नहीं करता है, जो तंत्रिका नेटवर्क के प्रशिक्षण का सबसे आम तरीका है, और इसके बजाय एक सरल आनुवंशिक एल्गोरिथ्म का उपयोग करता है। एक बार जब वह जेनेटिक्स पर बात करना शुरू कर दे, मुझे लगता है कि आप पढ़ना बंद कर सकते हैं ...


इन सभी शब्दों और विचारों को एक साथ रखने के लिए हर समय और प्रयासों के लिए धन्यवाद। मैं छवि पहचान के लिए विशेष रूप से NN में दिलचस्पी रखता हूं। मैंने ओपनसीवी लाइब्रेरी में फेस डिटेक्शन उदाहरण की कोशिश की, लेकिन पाया कि यह केवल कठोर वस्तुओं में अच्छा है। क्या न्यूरल नेटवर्क को समान पहचान की सीमा है, यानी केवल कठोर वस्तुओं पर अच्छा?
user1731927

ऐसा कोई सैद्धांतिक कारण नहीं है कि एनएन (या उस मामले के लिए सीएनएन) की इसकी पैटर्न मान्यता की एक सीमा होगी, लेकिन जैसा कि आप पहले ही खोज चुके हैं, कुछ समस्याएं दूसरों की तुलना में सीखना आसान हैं। मशीन सीखने में कई समस्याओं की तरह, आपको संभवतः अपने मॉडल को थोड़ा मोड़ना होगा ताकि यह उस विशिष्ट प्रकार की समस्या पर अच्छा कर सके जिसे आप हल करने की कोशिश कर रहे हैं, और एनएन इसके अपवाद नहीं हैं।
१२:१४ पर jlund3

1
छवि वर्गीकरण जैसी 2 डी ग्रिड समस्याओं को हल करने के लिए एनएन को एक साथ बेहतर संरचना करने के तरीके पर एक दिलचस्प पेपर यहां दिया गया है। axon.cs.byu.edu/~martinez/classes/678/Papers/science.pdf
jlund3

1
मूर्त रूप से, "गैर-कठोर" दृश्य वस्तुओं को सही ढंग से वर्गीकृत करने में कठिनाई, या एक और तरीका कहा गया है, जिन वस्तुओं के किनारों में साफ रेखाएं नहीं हैं, ठीक यही कारण है कि प्रकृति ने भी निर्धारित किया है कि छलावरण एक उत्कृष्ट चोरी की रणनीति है। सोच के लिए भोजन।
22 दिसंबर को mcstar

2

जो आपको भ्रमित करता है

यह कैसे एक छवि में है के बारे में सीखता है।

छवि में जो है वह छवि के पिक्सेल में मूल्यों द्वारा डिजिटल रूप से दर्शाया गया है। यदि आप छवि में रंग का एक उदाहरण लेते हैं। पिक्सेल में तीन मान हो सकते हैं, प्रत्येक तीन मुख्य रंगों के लिए - लाल, हरा और नीला ( RGB)। ( 10,50,100) के साथ एक पिक्सेल का अर्थ है कि इसमें ( 40,50,100) के साथ पिक्सेल की तुलना में 'कम' नीले रंग के तत्व हैं । इस प्रकार, छवि में पहला पिक्सेल कम नीले रंग के साथ एक क्षेत्र का प्रतिनिधित्व करता है। यह वह जानकारी है जो तंत्रिका नेटवर्क सीखता है, छवि के एक स्थान / क्षेत्र से दूसरे तक जाता है और छवि में जो कुछ भी है उसे जानने के लिए समाप्त होता है। अन्य छवि सुविधाओं (रंग के अलावा) के लिए भी यही सिद्धांत लागू किया जाता है जिसका उपयोग तंत्रिका नेटवर्क के इनपुट के रूप में किया जा सकता है। देखें इस , और इस बुनियादी छवि अवधारणाओं के लिए और उसके बाद करने के लिए ले जाने के लिए इस जानने के लिए कि तंत्रिका नेटवर्क कैसे काम करता है।


1

मशीन सीखने की सभी समस्याएं समान हैं। आपके पास कुछ ट्रेन डेटा हैं, एक मॉडल सीखें जो इस डेटा का प्रतिनिधित्व करता है और इस ज्ञान को सामान्य बनाने की क्षमता रखता है जिस तरह से आप क्लस्टर करते हैं, वर्गीकृत करते हैं, विभिन्न एल्गोरिदम के साथ सीखते हैं।

छवि मान्यता में आपके पास फिर से छवियों का एक सेट है जिसे आप सीखना चाहते हैं।

  1. इन छवियों को सबसे पहले संसाधित किया गया और कुछ विशेषताओं को छवियों से निकाला गया है (बहुत सी संभावित छवि सुविधा योजनाएं जैसे सिफ्ट, बग का काम) जैसे कि आप पिक्सेल और उनके मूल्यों का उपयोग करते हैं।
  2. अपने एमएल एल्गोरिथ्म (न्यूरल नेट, एसवीएम या अन्य) के लिए संबंधित फ़ीचर वैक्टर के साथ इन छवियों को दें।
  3. एक मॉडल सीखें
  4. प्रशिक्षण डेटा पर पर्याप्त रूप से देखी जाने वाली वस्तुओं को पहचानने के लिए इस मॉडल का उपयोग करें।

यदि आप एक से अधिक चीजों को पहचानना चाहते हैं, तो प्रत्येक के लिए कई क्लासिफायरियर का उपयोग करें।


1

मैं छवि पहचान के लिए बहुत लोकप्रिय उल्लेख करना चाहूंगा। यहाँ एक सीएनएन के सरलीकृत स्पष्टीकरण के लिए लिंक है ।

संक्षेप में, सीएनएन छवि में पहले किनारों, आकृतियों, आकृतियों के संग्रह जैसी विशेषताओं में विभाजित किया गया है। फिर इन सुविधाओं को 'नियमित' पूरी तरह से जुड़े मल्टी-लेयर न्यूरल नेटवर्क (मल्टी-लेयर परसेप्ट्रॉन) में 'फीड' किया जाता है।

अधिक विवरण में, फीचर मैप के रूप में सुविधाओं को निकालने के लिए फ़िल्टर का एक सेट लागू किया जाता है। एक फिल्टर सिर्फ एक मैट्रिक्स है (शुरुआत में यादृच्छिक) जो मूल छवि पर लागू होता है ताकि मूल छवि मैट्रिक्स और फिल्टर मैट्रिक्स के डॉट उत्पाद की गणना की जाती है और परिणाम को अभिव्यक्त किया जाता है। फ़िल्टर एक समय में मूल छवि एक पिक्सेल (चरण) के साथ चलता है और फीचर मैप का मैट्रिक्स भरा जा रहा है। प्रत्येक फ़िल्टर के लिए एक फ़ीचर मैप बनाया जाता है। फिर गैर-रैखिकता को प्रत्येक फीचर मैप में प्रत्येक पिक्सेल के लिए RELU (रेक्टीफाइड लाइनर यूनिट) के साथ पेश किया गया। पूलिंग, या तो अधिकतम (), योग () या औसत () के आवेदन के माध्यम से किया जाता है, जो संकल्प के बाद किया जाता है। अंत में, इस तरह से निकाली गई विशेषताएं मूल छवि के 'आवर्धित' टुकड़ों की तरह दिखती हैं। ये विशेषताएं पूरी तरह से जुड़े हुए हैं (सभी इकाइयां जुड़ी हुई हैं) तंत्रिका नेटवर्क में इनपुट हैं और प्रत्येक छवि के लिए संभाव्यताएं (हम कारों, पेड़ों और नावों की छवियों पर हमारे नेटवर्क को प्रशिक्षित करते हैं) की गणना नेटवर्क के माध्यम से प्रत्येक फीडफॉरवर्ड पास के बाद की जाती है। नेटवर्क को प्रशिक्षित किया गया है, जिसका अर्थ है कि पैरामीटर (वेट) और फिल्टर मैट्रीक को बैकप्रोपैजेशन (मिसकॉलिफिकेशन त्रुटि को कम करना) के माध्यम से अनुकूलित किया गया है। जब एक नई छवि को प्रशिक्षित नेटवर्क में इनपुट किया जाता है, तो छवि को पहचानने के लिए केवल फीडबैक की आवश्यकता होती है (बशर्ते कि नेटवर्क पर्याप्त सटीक हो, यानी हमने इसे पर्याप्त उदाहरणों के साथ प्रशिक्षित किया है) जिसका अर्थ है कि पैरामीटर (वेट) और फिल्टर मैट्रीक को बैकप्रोपैजेशन (मिसकॉलिफिकेशन एरर का कम से कम) के माध्यम से ऑप्टिमाइज़ किया जाता है। जब एक नई छवि को प्रशिक्षित नेटवर्क में इनपुट किया जाता है, तो छवि को पहचानने के लिए केवल फीडबैक की आवश्यकता होती है (बशर्ते कि नेटवर्क पर्याप्त सटीक हो, यानी हमने इसे पर्याप्त उदाहरणों के साथ प्रशिक्षित किया है) जिसका अर्थ है कि पैरामीटर (वेट) और फिल्टर मैट्रीक को बैकप्रोपैजेशन (मिसकॉलिफिकेशन एरर का कम से कम) के माध्यम से ऑप्टिमाइज़ किया जाता है। जब एक नई छवि को प्रशिक्षित नेटवर्क में इनपुट किया जाता है, तो छवि को पहचानने के लिए केवल फीडबैक की आवश्यकता होती है (बशर्ते कि नेटवर्क पर्याप्त सटीक हो, यानी हमने इसे पर्याप्त उदाहरणों के साथ प्रशिक्षित किया है)


0

यह जानना अच्छा है कि एएनएन उस मामले के लिए कोई भी कार्य f (x) या f (x, y, z, ..) या कोई बहुक्रिया बना सकता है। लेकिन यह जानना भी महत्वपूर्ण है कि फ़ंक्शंस की सीमाएँ हैं कि वे डेटा को कैसे वर्गीकृत कर सकते हैं ... ऑब्जेक्ट्स के पावरसेट्स के अधिक जटिल संबंध उपसमुच्चय हैं, जो वर्गीकरण में महत्वपूर्ण हैं और इनका वर्णन ऐसे कार्यों द्वारा सुरुचिपूर्ण या प्राकृतिक तरीके से नहीं किया जाता है, लेकिन भाषा और वर्गीकृत वस्तुओं में महत्वपूर्ण हैं। एएनएन हालांकि यह भी पूरा कर सकता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.