क्या कोई कृपया बैक-प्रचार एल्गोरिथ्म की व्याख्या कर सकता है? [डुप्लिकेट]


13

बैक-प्रचार एल्गोरिथ्म क्या है और यह कैसे काम करता है?


1
मैं इस सवाल का जवाब यहां देता हूं अगर किसी को दिलचस्पी है (मैं पुनर्खरीद नहीं करना चाहता था)।
फीलिदा

जवाबों:


14

वापस प्रसार एल्गोरिथ्म एक तंत्रिका नेटवर्क मॉडल फिटिंग के लिए एक ढाल वंशज एल्गोरिथ्म है। (@Dikran द्वारा उल्लिखित) मुझे कैसे समझाएं।

औपचारिक रूप से: समीकरण के भीतर इस पद के अंत में ग्रेडिएंट की गणना का उपयोग करना [1] नीचे (जो कि ढाल वंश की परिभाषा है) एक ढाल वंश के उपयोग के एक विशेष मामले के रूप में वापस प्रसार एल्गोरिथ्म देता है।

एक तंत्रिका नेटवर्क मॉडल औपचारिक रूप से, हम एक साधारण सिंगल लेयर मॉडल के साथ विचारों को ठीक करते हैं:

जी : आरआर एस : आर एमआर एम मीटर = 1 ... , एम एस ( एक्स ) [ एम ] = σ ( एक्स [ m ] ) : आर एमआर

f(x)=g(A1(s(A2(x))))
जहां और को सभी , , और , अज्ञात affine फ़ंक्शन हैं। फ़ंक्शन को वर्गीकरण के ढांचे में सक्रियण फ़ंक्शन कहा जाता है।g:RRs:RMRMm=1,Ms(x)[m]=σ(x[m])A1:RMR σ : आरआरA2RpRMσ:RR

विचारों को ठीक करने के लिए एक द्विघात हानि फ़ंक्शन लिया जाता है। इसलिए इनपुट वैक्टर of को वास्तविक आउटपुट of (वैक्टर हो सकता है) को अनुभवजन्य को छोटा करके लगाया जा सकता है। हानि: और की पसंद के संबंध में ।आर पी ( y 1 , ... , y एन ) आर आर एन ( 1 , 2 ) = n Σ मैं = 1 ( y मैं - ( एक्स मैं ) ) 2(x1,,xn)Rp(y1,,yn)R

Rn(A1,A2)=i=1n(yif(xi))2[1]
A1A2

ग्रेडिएंट डीसेंटगणितकोकम करने के लिए एक भव्य वंशजएक एल्गोरिथ्म है जो पुनरावृति करता है: अच्छी तरह से चुने गए स्टेप साइज(जिसेके फ्रेमवर्क में लर्निंग रेट भी कहा जाता है)। इसके लिएके ढाल की गणना की आवश्यकता है। माना मामले में।एक एल + 1 = एक एल - γ एलआर ( एक एल ) , एल 0. ( γ एल ) एल आर एक एल = ( 1 एल , 2 एल )R

al+1=alγlR(al), l0.
(γl)lRal=(Al1,Al2)

की ढालR हमें निरूपित, द्वारा (सरल तंत्रिका शुद्ध मॉडल माना के लिए) की ढाल के एक समारोह के रूप में , और एक समारोह के रूप में की ढाल । स्टैंडर्ड गणना (कार्यों की रचना की व्युत्पत्ति के लिए नियम का उपयोग कर) और संकेतन का उपयोग दे सभी लिए1RRA12RRA2zi=A1(s(A2(xi)))

1R[1:M]=2×i=1nzig(zi)(yif(xi))
m=1,,M
2R[1:p,m]=2×i=1nxig(zi)zi[m]σ(A2(xi)[m])(yif(xi))

यहाँ मैं आर संकेतन प्रयोग किया है: के निर्देशांक से बना वेक्टर है सूचकांक से सूचकांक के लिए ।x a bx[a:b]xab


11

बैक-प्रोपोगेशन वज़न के संबंध में त्रुटि फ़ंक्शन के व्युत्पन्न से बाहर काम करने का एक तरीका है, ताकि मॉडल को ढाल वंशानुक्रम अनुकूलन विधियों द्वारा प्रशिक्षित किया जा सके - यह मूल रूप से केवल "चेन नियम" का अनुप्रयोग है। वास्तव में इसके मुकाबले बहुत अधिक नहीं है, इसलिए यदि आप पथरी के साथ सहज हैं जो मूल रूप से इसे देखने का सबसे अच्छा तरीका है।

यदि आप पथरी के साथ सहज नहीं हैं, तो एक बेहतर तरीका यह होगा कि हम जानते हैं कि आउटपुट इकाइयां कितनी बुरी तरह से कर रही हैं क्योंकि हमारे पास एक वांछित आउटपुट है जिसके साथ वास्तविक आउटपुट की तुलना करना है। हालाँकि हमारे पास छिपी हुई इकाइयों के लिए एक वांछित आउटपुट नहीं है, इसलिए हम क्या करते हैं? बैक-प्रचार नियम मूल रूप से छिपी हुई इकाइयों पर आउटपुट इकाइयों की त्रुटि के लिए दोष को बाहर निकालने का एक तरीका है। किसी विशेष उत्पादन इकाई पर एक छिपी हुई इकाई का जितना अधिक प्रभाव होता है, त्रुटि के लिए उसे उतना ही अधिक दोष मिलता है। एक छिपी हुई इकाई से जुड़ा कुल दोष तब संकेत देता है कि इनपुट-टू-हिडन लेयर वेट्स को बदलने की कितनी आवश्यकता है। दो चीजें जो शासन करती हैं कि कितना दोष दिया गया है, वह छिपे हुए और आउटपुट लेयर वेट्स (जाहिर है) और छिपे हुए यूनिट के आउटपुट को जोड़ने वाला वजन है (यदि यह फुसफुसाए जाने के बजाय चिल्ला रहा है तो इसका बड़ा प्रभाव होने की संभावना है)। बाकी सिर्फ गणितीय बारीकियाँ हैं जो उस अंतर्ज्ञान को प्रशिक्षण की कसौटी के व्युत्पन्न में बदल देती हैं।

मैं भी उचित उत्तर के लिए बिशप बुक की सिफारिश करूंगा! ; ओ)


2

यह फीडफ़ॉर्मवर्ड मल्टीलेयर न्यूरल नेटवर्क (बहुपरत पेसेप्ट्रॉन) के प्रशिक्षण के लिए एक एल्गोरिथ्म है। वेब के आसपास कई अच्छे जावा एप्लेट्स हैं जो यह बताते हैं कि यह क्या हो रहा है, जैसे: http://neuron.eng.wayne.edu/bpFunctionApprox/bpFunctionApprox.html । इसके अलावा, एनएन पर बिशप की पुस्तक एनएन के साथ कुछ भी करने के लिए मानक डेस्क संदर्भ है।


प्रश्न और उत्तरों के रूप में उच्च-गुणवत्ता वाले सांख्यिकीय जानकारी का एक स्थायी भंडार बनाने की कोशिश में, हम लिंक-केवल उत्तरों से बचने की कोशिश करते हैं । यदि आप सक्षम हैं, तो क्या आप इसका विस्तार कर सकते हैं, शायद लिंक पर जानकारी का सारांश देकर?
Glen_b -Reinstate मोनिका
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.