कुछ कनेक्शनों को हटाकर एक बेहतर एएनएन प्राप्त करना संभव है?


11

मैं सोच रहा था कि क्या कुछ परिस्थितियों में ANN के लिए बेहतर प्रदर्शन करना संभव है यदि आप उदाहरण के लिए उन पर कुछ कनेक्शन दूर करते हैं:

एक एएनएन का निर्माण दो बहुस्तरीय एएनएन के ए और बी को समानांतर (समान इनपुट और आउटपुट नोड्स) में ले जाकर ए और बी की छिपी परतों के बीच कुछ "संचार" कनेक्शन जोड़कर किया जाता है?

क्या कोई बेहतर सामान्यीकरण परिणाम प्राप्त कर सकता है?

क्या यह किसी भी तरह से व्यवहार में उपयोग किया जाता है या क्या कोई हमेशा बहुस्तरीय पूरी तरह से जुड़े नेटवर्क का उपयोग करता है?

जवाबों:


7

हाँ यह संभव है। कुछ लोगों ने इस समस्या को विस्तार से देखा है। यहां ऐसा करने के लिए एक विधि के बारे में एक पुराना कागज है: इष्टतम मस्तिष्क क्षति


नियमितीकरण से बेहतर क्यों है नोड्स का पता लगाना? मैंने सोचा, नियमितीकरण के साथ कनेक्शन को prune करने की कोई आवश्यकता नहीं है - "अनावश्यक" वाले बस बहुत छोटे वजन प्राप्त करेंगे और यही है।
andreister

@andreister मुझे नहीं लगता कि यह नियमितीकरण से बेहतर है। मुझे लगता है कि यह नियमितीकरण का प्रारंभिक (प्रारंभिक) विकल्प है। यह बहुत पुराना पेपर है, नब्बे के दशक के मध्य में एमएल में नियमितीकरण मुख्यधारा बन गया।
carlosdc

7

अंगूठे के एक नियम के रूप में, छोटे और / या विरल नेटवर्क बेहतर सामान्य करते हैं। आप अपने प्रशिक्षण एल्गोरिथ्म को किसी निश्चित आकार के नेटवर्क के भीतर आवश्यक कनेक्शनों को किसी न किसी प्रकार के वजन क्षय को लागू करने से रोक सकते हैं, या आप एक एल्गोरिथ्म को लागू कर सकते हैं जिसका उद्देश्य नेटवर्क इनपुट / टोपोलॉजी को आवश्यक इनपुट, छिपे हुए नोड्स या कनेक्शनों को हटाने के माध्यम से अनुकूलित करना है।

आगे के शोध के लिए विचारों और शुरुआती बिंदुओं के लिए इन संदर्भों पर एक नज़र डालें, या आर्किटेक्चर को डिजाइन, प्र्यून और ऑप्टिमाइज़ करने के लिए विकासवादी एल्गोरिदम का उपयोग करें।

  1. कैस्टेलानो, जी।, फैनेली, एएम (2000) 'न्यूरल-नेटवर्क मॉडल का उपयोग करके परिवर्तनीय चयन', न्यूरोकंप्यूटिस (31)
  2. जी सी।, Psaltis D. (1997) 'नेटवर्क सिंथेसिस द डेटा-ड्रिवेन ग्रोथ एंड डेके', न्यूरल नेटवर्क्स वॉल्यूम। 10, नंबर 6, पीपी। 1133-1141
  3. नरसिम्हा पीएल एट अल (2008) 'फीडफोर्वर्ड नेटवर्क ट्रेनिंग के लिए एक एकीकृत बढ़ती-प्रुनिंग पद्धति', न्यूरोकोम्प्यूटिंग (71), पीपी। 2831-2847
  4. शूस्टर, ए। (2008) 'रोबस्ट आरती ural सियाल न्यूरल नेटवर्क आर्किटेक्चर्स', इंटरनेशनल जर्नल ऑफ़ कम्प्यूटेशनल इंटेलिजेंस (4: 2), पीपी। 98-104

मैं वास्तव में उत्तर के भाग को "आर्किटेक्चर को डिजाइन, प्रून और ऑप्टिमाइज़ करने के लिए विकासवादी एल्गोरिदम के उपयोग पर ध्यान देना" के बारे में अधिक सुनना पसंद करूंगा। शायद मैं इसके बारे में एक सवाल पूछूंगा!
आर्टेम काज़नाचेव

6

ज्यादातर मामलों में यदि आप अनावश्यक कनेक्शन हटाते हैं तो आपको बेहतर नेटवर्क मिलेगा। नेटवर्क को ओवरटेक करना (ओवरफिट) करना आसान है --- जिस स्थिति में यह सत्यापन डेटासेट पर खराब प्रदर्शन करेगा।

अप्रभावी कनेक्शनों की गणना करने से संभवतः ओ ओवरट्रेनिंग की संभावना कम हो जाएगी। कृपया देखें: http://en.wikipedia.org/wiki/Overfitting


5

हाँ यह संभव है। हम विचार कर सकते हैं, कम्प्यूटेशनल एकजुटता के बीच संबंध, छिपी हुई परतों की संख्या, छिपी हुई परत के प्रति एकजुटता आदि हाइपर-मापदंडों के रूप में। प्रयोगों की एक श्रृंखला का संचालन करके इन मापदंडों के लिए इष्टतम मूल्यों का पता लगाना संभव है।

उदाहरण के लिए:

आप अपने डेटा सेट को निम्नानुसार विभाजित कर सकते हैं: प्रशिक्षण सेट 60% डेटा, क्रॉस-मान्यता 20% डेटा, परीक्षण 20% डेटा,

फिर क्रॉस-सत्यापन डेटा सेट का उपयोग करके प्रशिक्षण डेटा सेट और ट्यूनिंग पैरामीटर का उपयोग करके अपने एनएन को प्रशिक्षित करें।

अंत में आप अपने एनएन के प्रदर्शन का मूल्यांकन करने के लिए अपने परीक्षण डेटा सेट का उपयोग कर सकते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.