तीन वाक्य संस्करण:
प्रत्येक परत आप किसी भी फ़ंक्शन को पिछली परत पर लागू कर सकते हैं (आमतौर पर एक रेखीय परिवर्तन जो स्क्वैश नॉनलाइनरिटी द्वारा पीछा किया जाता है)।
छिपी हुई परतों का काम इनपुट को कुछ ऐसी चीजों में बदलना है जो आउटपुट लेयर का उपयोग कर सकती है।
आउटपुट लेयर छिपी हुई लेयर एक्टिविटीज को उस पैमाने में बदल देती है जो आप चाहते थे कि आपका आउटपुट चालू रहे।
आप 5 की तरह हैं:
यदि आप चाहते हैं कि कंप्यूटर आपको बताए कि चित्र में कोई बस है, तो कंप्यूटर के पास एक आसान समय हो सकता है यदि उसके पास सही उपकरण हों।
तो आपका बस डिटेक्टर व्हील डिटेक्टर से बना हो सकता है (आपको यह वाहन बताने में मदद करने के लिए) और एक बॉक्स डिटेक्टर (क्योंकि बस एक बड़े बॉक्स के आकार का है) और एक आकार डिटेक्टर (आपको यह बताने के लिए कि कार बनना बहुत बड़ा है) )। ये आपकी छिपी हुई परत के तीन तत्व हैं: वे कच्ची छवि का हिस्सा नहीं हैं, वे आपके द्वारा डिज़ाइन किए गए उपकरण हैं जिनकी मदद से आप कली की पहचान कर सकते हैं।
यदि उन तीनों डिटेक्टरों को चालू करते हैं (या शायद यदि वे विशेष रूप से सक्रिय हैं), तो आपके सामने एक अच्छा मौका है।
तंत्रिका जाल उपयोगी होते हैं क्योंकि बहुत सारे डिटेक्टरों के निर्माण और उन्हें एक साथ रखने के लिए अच्छे उपकरण (जैसे बैकप्रोपैजेशन) होते हैं।
जैसे आप एक वयस्क हैं
फीड-फ़ॉरवर्ड न्यूरल नेटवर्क डेटा के लिए कई प्रकार के फ़ंक्शन लागू करता है। सटीक फ़ंक्शन आपके द्वारा उपयोग किए जा रहे तंत्रिका नेटवर्क पर निर्भर करेगा: सबसे अधिक बार, ये कार्य प्रत्येक पिछली परत के एक रैखिक परिवर्तन की गणना करते हैं, इसके बाद एक स्क्वैश नॉनलाइनरिटी होती है। कभी-कभी फ़ंक्शंस कुछ और करेंगे (जैसे आपके उदाहरणों में तार्किक कार्यों की गणना करना, या किसी छवि में आसन्न पिक्सल के औसत)। इसलिए विभिन्न परतों की भूमिका इस बात पर निर्भर कर सकती है कि किन कार्यों की गणना की जा रही है, लेकिन मैं बहुत सामान्य होने की कोशिश करूंगा।
चलो इनपुट वेक्टर , छिपी हुई परत सक्रियण , और आउटपुट सक्रियण । आपके पास कुछ फ़ंक्शन जो से तक के नक्शे और दूसरे फ़ंक्शन जो कि से तक के नक्शे हैं । h y f x h g h yएक्सजyचएक्सhghy
तो छिपी हुई परत की सक्रियता और नेटवर्क का आउटपुट ।जी ( एफ ( एक्स ) )f(x)g(f(x))
केवल एक के बजाय दो कार्य ( और ) क्यों हैं ?गfg
यदि प्रति फ़ंक्शन जटिलता का स्तर सीमित है, तो उन चीजों की गणना कर सकता है जो और व्यक्तिगत रूप से नहीं कर सकते हैं। f gg(f(x))fg
तार्किक कार्यों के साथ एक उदाहरण:
उदाहरण के लिए, अगर हम केवल अनुमति देते हैं और तरह साधारण तार्किक ऑपरेटरों "और", "या", और "नन्द" होने के लिए तो आप उनमें से सिर्फ एक के साथ "XOR" की तरह अन्य कार्यों की गणना नहीं कर सकते। दूसरी ओर, हम "XOR" की गणना कर सकते हैं यदि हम एक दूसरे के ऊपर इन कार्यों को परत करने के लिए तैयार थे:गfg
पहली परत कार्य:
- सुनिश्चित करें कि कम से कम एक तत्व "TRUE" है (OR का उपयोग करके)
- सुनिश्चित करें कि वे सभी "TRUE" नहीं हैं (NAND का उपयोग करके)
दूसरी परत समारोह:
- सुनिश्चित करें कि पहली-लेयर मानदंड दोनों संतुष्ट हैं (का उपयोग करके और)
नेटवर्क का आउटपुट केवल इस दूसरे फ़ंक्शन का परिणाम है। पहली परत इनपुट्स को कुछ इस तरह से रूपांतरित करती है कि दूसरी परत का उपयोग कर सकते हैं ताकि पूरा नेटवर्क XOR कर सके।
छवियों के साथ एक उदाहरण:
इस टॉक से स्लाइड 61 - यहाँ एकल छवि के रूप में उपलब्ध है - दिखाता है (कल्पना करने का एक तरीका) जो किसी विशेष तंत्रिका नेटवर्क में अलग-अलग छिपी हुई परतों की तलाश कर रहा है।
पहली परत छवि में किनारों के छोटे टुकड़ों के लिए दिखती है: ये कच्चे पिक्सेल डेटा से खोजना बहुत आसान है, लेकिन वे आपको यह बताने के लिए खुद से बहुत उपयोगी नहीं हैं कि क्या आप किसी चेहरे या बस या हाथी को देख रहे हैं? ।
अगली परत किनारों की रचना करती है: यदि नीचे छिपी हुई परत के किनारों को एक निश्चित तरीके से एक साथ फिट किया जाता है, तो बाएं-सबसे कॉलम के बीच में एक आंख-डिटेक्टर चालू हो सकता है। एक सिंगल लेयर बनाना मुश्किल होगा जो कच्चे पिक्सल से इतनी विशिष्ट चीज़ को खोजने में इतना अच्छा था: कच्चे डिटेक्टरों की तुलना में आई डिटेक्टरों को किनारे से बाहर बनाने में बहुत आसान है।
अगली लेयर अप आई डिटेक्टर और चेहरों में नाक डिटेक्टर बनाती है। दूसरे शब्दों में, ये तब प्रकाश करेंगे जब पिछली परत से आई डिटेक्टर और नाक डिटेक्टर सही पैटर्न के साथ चालू होते हैं। ये विशेष प्रकार के चेहरों की तलाश में बहुत अच्छे होते हैं: यदि इनमें से एक या अधिक रोशनी आती है, तो आपकी आउटपुट परत को रिपोर्ट करना चाहिए कि एक चेहरा मौजूद है।
यह उपयोगी है क्योंकि फेस डिटेक्टर नेत्र डिटेक्टर और नाक डिटेक्टरों से बाहर बनाना आसान है, लेकिन वास्तव में पिक्सेल तीव्रता से बाहर निर्माण करना मुश्किल है।
इसलिए प्रत्येक परत आपको कच्चे पिक्सल से आगे और दूर तक जाती है और अपने अंतिम लक्ष्य (जैसे चेहरे का पता लगाने या बस का पता लगाने) के करीब जाती है।
अन्य प्रश्नों के उत्तर देने के लिए
"इनपुट परत में कुछ परतें छिपी हुई परत से क्यों जुड़ी हैं और कुछ नहीं हैं?"
नेटवर्क में डिस्कनेक्ट किए गए नोड्स को "पूर्वाग्रह" नोड्स कहा जाता है। यहाँ एक बहुत अच्छी व्याख्या है । संक्षिप्त उत्तर यह है कि वे प्रतिगमन में अवरोधन शब्द की तरह हैं।
"छवि उदाहरण में" नेत्र डिटेक्टर "चित्र कहां से आते हैं?"
मैंने उन विशिष्ट छवियों को डबल-चेक नहीं किया है जिनसे मैं जुड़ा था, लेकिन सामान्य तौर पर, ये दृश्य इनपुट परत में पिक्सेल के सेट को दिखाते हैं जो संबंधित न्यूरॉन की गतिविधि को अधिकतम करते हैं। इसलिए अगर हम न्यूरॉन को एक आंख डिटेक्टर के रूप में सोचते हैं, तो यह वह छवि है जिसे न्यूरॉन सबसे ज्यादा आंख की तरह मानता है। आमतौर पर फोल्क्स इन पिक्सेल सेट को एक अनुकूलन (हिल-क्लाइम्बिंग) प्रक्रिया के साथ पाते हैं।
में इस पत्र दुनिया के सबसे बड़े तंत्रिका जाल में से एक के साथ कुछ गूगल लोगों द्वारा, वे एक "चेहरा डिटेक्टर" न्यूरॉन और एक "बिल्ली डिटेक्टर" न्यूरॉन इस तरह से है, साथ ही एक दूसरे रास्ता दिखा: वे यह भी पता चलता वास्तविक चित्र है कि सक्रिय करें न्यूरॉन सबसे दृढ़ता से (आंकड़ा 3, आंकड़ा 16)। दूसरा दृष्टिकोण अच्छा है, क्योंकि यह दिखाता है कि नेटवर्क कितना लचीला और अशुभ है - ये उच्च-स्तरीय "डिटेक्टर" इन सभी छवियों के प्रति संवेदनशील हैं, भले ही वे विशेष रूप से पिक्सेल स्तर पर समान न दिखते हों।
मुझे बताएं कि क्या यहां कुछ भी अस्पष्ट है या यदि आपके कोई और प्रश्न हैं।