जवाबों:
वापस प्रसार एल्गोरिथ्म एक तंत्रिका नेटवर्क मॉडल फिटिंग के लिए एक ढाल वंशज एल्गोरिथ्म है। (@Dikran द्वारा उल्लिखित) मुझे कैसे समझाएं।
औपचारिक रूप से: समीकरण के भीतर इस पद के अंत में ग्रेडिएंट की गणना का उपयोग करना [1] नीचे (जो कि ढाल वंश की परिभाषा है) एक ढाल वंश के उपयोग के एक विशेष मामले के रूप में वापस प्रसार एल्गोरिथ्म देता है।
एक तंत्रिका नेटवर्क मॉडल औपचारिक रूप से, हम एक साधारण सिंगल लेयर मॉडल के साथ विचारों को ठीक करते हैं:
जी : आर → आर एस : आर एम → आर एम मीटर = 1 ... , एम एस ( एक्स ) [ एम ] = σ ( एक्स [ m ] ) ए १ : आर एम → आर ए
विचारों को ठीक करने के लिए एक द्विघात हानि फ़ंक्शन लिया जाता है। इसलिए इनपुट वैक्टर of को वास्तविक आउटपुट of (वैक्टर हो सकता है) को अनुभवजन्य को छोटा करके लगाया जा सकता है। हानि: और की पसंद के संबंध में ।आर पी ( y 1 , ... , y एन ) आर आर एन ( ए 1 , ए 2 ) = n Σ मैं = 1 ( y मैं - च ( एक्स मैं ) ) 2ए १ ए २
ग्रेडिएंट डीसेंटगणितकोकम करने के लिए एक भव्य वंशजएक एल्गोरिथ्म है जो पुनरावृति करता है: अच्छी तरह से चुने गए स्टेप साइज(जिसेके फ्रेमवर्क में लर्निंग रेट भी कहा जाता है)। इसके लिएके ढाल की गणना की आवश्यकता है। माना मामले में।एक एल + 1 = एक एल - γ एल ∇ आर ( एक एल ) , एल ≥ 0. ( γ एल ) एल आर एक एल = ( ए 1 एल , ए 2 एल )
की ढाल हमें निरूपित, द्वारा (सरल तंत्रिका शुद्ध मॉडल माना के लिए) की ढाल के एक समारोह के रूप में , और एक समारोह के रूप में की ढाल । स्टैंडर्ड गणना (कार्यों की रचना की व्युत्पत्ति के लिए नियम का उपयोग कर) और संकेतन का उपयोग दे सभी लिए
यहाँ मैं आर संकेतन प्रयोग किया है: के निर्देशांक से बना वेक्टर है सूचकांक से सूचकांक के लिए ।x a b
बैक-प्रोपोगेशन वज़न के संबंध में त्रुटि फ़ंक्शन के व्युत्पन्न से बाहर काम करने का एक तरीका है, ताकि मॉडल को ढाल वंशानुक्रम अनुकूलन विधियों द्वारा प्रशिक्षित किया जा सके - यह मूल रूप से केवल "चेन नियम" का अनुप्रयोग है। वास्तव में इसके मुकाबले बहुत अधिक नहीं है, इसलिए यदि आप पथरी के साथ सहज हैं जो मूल रूप से इसे देखने का सबसे अच्छा तरीका है।
यदि आप पथरी के साथ सहज नहीं हैं, तो एक बेहतर तरीका यह होगा कि हम जानते हैं कि आउटपुट इकाइयां कितनी बुरी तरह से कर रही हैं क्योंकि हमारे पास एक वांछित आउटपुट है जिसके साथ वास्तविक आउटपुट की तुलना करना है। हालाँकि हमारे पास छिपी हुई इकाइयों के लिए एक वांछित आउटपुट नहीं है, इसलिए हम क्या करते हैं? बैक-प्रचार नियम मूल रूप से छिपी हुई इकाइयों पर आउटपुट इकाइयों की त्रुटि के लिए दोष को बाहर निकालने का एक तरीका है। किसी विशेष उत्पादन इकाई पर एक छिपी हुई इकाई का जितना अधिक प्रभाव होता है, त्रुटि के लिए उसे उतना ही अधिक दोष मिलता है। एक छिपी हुई इकाई से जुड़ा कुल दोष तब संकेत देता है कि इनपुट-टू-हिडन लेयर वेट्स को बदलने की कितनी आवश्यकता है। दो चीजें जो शासन करती हैं कि कितना दोष दिया गया है, वह छिपे हुए और आउटपुट लेयर वेट्स (जाहिर है) और छिपे हुए यूनिट के आउटपुट को जोड़ने वाला वजन है (यदि यह फुसफुसाए जाने के बजाय चिल्ला रहा है तो इसका बड़ा प्रभाव होने की संभावना है)। बाकी सिर्फ गणितीय बारीकियाँ हैं जो उस अंतर्ज्ञान को प्रशिक्षण की कसौटी के व्युत्पन्न में बदल देती हैं।
मैं भी उचित उत्तर के लिए बिशप बुक की सिफारिश करूंगा! ; ओ)
यह फीडफ़ॉर्मवर्ड मल्टीलेयर न्यूरल नेटवर्क (बहुपरत पेसेप्ट्रॉन) के प्रशिक्षण के लिए एक एल्गोरिथ्म है। वेब के आसपास कई अच्छे जावा एप्लेट्स हैं जो यह बताते हैं कि यह क्या हो रहा है, जैसे: http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html । इसके अलावा, एनएन पर बिशप की पुस्तक एनएन के साथ कुछ भी करने के लिए मानक डेस्क संदर्भ है।