क्या ऐसे अध्ययन हैं जो ड्रॉपआउट बनाम अन्य नियमितताओं की जांच करते हैं?


9

क्या कोई शोधपत्र प्रकाशित हुआ है जो तंत्रिका नेटवर्क के लिए नियमितीकरण के तरीकों के अंतर को दर्शाता है, अधिमानतः विभिन्न डोमेन (या कम से कम विभिन्न डेटासेट) पर?

मैं पूछ रहा हूं क्योंकि मुझे वर्तमान में यह एहसास है कि ज्यादातर लोग कंप्यूटर विज़न में नियमितीकरण के लिए केवल ड्रॉपआउट का उपयोग करते हैं। मैं यह जांचना चाहूंगा कि क्या नियमितीकरण के विभिन्न तरीकों का उपयोग करने का कोई कारण (नहीं) होगा।

जवाबों:


3

दो बिंदु:

  1. ड्रॉपआउट भी आमतौर पर तंत्रिका नेटवर्क ensembles के साथ तुलना में है। ऐसा लगता है कि इसमें कई तंत्रिका नेटवर्क के प्रशिक्षण और औसत प्रदर्शन के कुछ लाभ हैं।
  2. ड्रॉपआउट नियमितिकरण की तुलना में जांचना आसान है। केवल एक हाइपरपरेट है जो ड्रॉपआउट दर है और लोग प्रशिक्षण के दौरान व्यापक रूप से 0.5 का उपयोग करते हैं (और फिर 1.0 पाठ्यक्रम के मूल्यांकन पर :)), उदाहरण के लिए देखें यह TensorFlow उदाहरण

किसी भी तरह, मैं तंत्रिका नेटवर्क के अनुभवजन्य अध्ययन से थोड़ा उलझन में हूं। ठीक ट्यून करने के लिए बहुत सारे हाइपरपैरामीटर हैं, नेटवर्क की टोपोलॉजी से लेकर ग्रेडिएंट डिसेंट ऑप्टिमाइजेशन प्रक्रिया तक सक्रियण कार्यों के लिए और जो भी आप इसे नियमितीकरण की तरह परीक्षण कर रहे हैं। फिर, पूरी बात स्टोकेस्टिक है और आमतौर पर प्रदर्शन लाभ इतने छोटे होते हैं कि आप मतभेदों के लिए सांख्यिकीय परीक्षण शायद ही कर सकते हैं। कई लेखक सांख्यिकीय परीक्षण करने से भी गुरेज नहीं करते हैं। वे केवल क्रॉस-वैल्यूएशन को औसत करते हैं और घोषित करते हैं कि जो भी मॉडल विजेता होने के लिए उच्चतम दशमलव बिंदु हासिल करता है।

आप एक अध्ययन को केवल एक और नियमितीकरण को बढ़ावा देने के लिए विरोधाभासी होने के लिए छोड़ सकते हैं।

मुझे लगता है कि यह सब सौंदर्यशास्त्र की प्राथमिकताओं को उबालता है। ड्रॉपआउट आईएमएचओ नियमितीकरण की तुलना में अधिक जैविक प्रशंसनीय लगता है। यह भी जांचना आसान लगता है। इसलिए, मैं व्यक्तिगत रूप से इसे पसंद करता हूं जब TensorFlow जैसी रूपरेखा का उपयोग किया जाता है। अगर हमें अपने स्वयं के तंत्रिका नेटवर्क का उपयोग करना है, जो हम अक्सर करते हैं, तो हम नियमितीकरण का उपयोग करेंगे क्योंकि इसे लागू करना आसान था।


0

निश्चित रूप से। खुद क्रिएटर से पेपर, जेफ्री हिंटन। https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf इसे पढ़ें। लेकिन मैं यू को प्रोत्साहित करता हूं कि आप इसे लागू करके इसका अंतर देखें।


2
पेपर नियमित रूप से विभिन्न नियमितीकरण दृष्टिकोणों के बीच तुलना नहीं करता है, केवल समय पर अत्याधुनिक परिणामों में सुधार के रूप में ड्रॉपआउट का प्रदर्शन करके (पिछले परिणामों में सबसे अधिक संभावना है कि नियमितीकरण के कुछ अन्य रूपों का उपयोग किया गया था, लेकिन वे सूचीबद्ध नहीं हैं)। यह ड्रॉपआउट को बढ़ाने के लिए एक प्रभावी अतिरिक्त नियमित सलाहकार के रूप में अधिकतम भार बाधाओं का भी उल्लेख करता है।
नील स्लेटर
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.