regularization पर टैग किए गए जवाब

5
ड्रॉपआउट परत को जोड़ने से गहरी / मशीन सीखने के प्रदर्शन में सुधार क्यों होता है, यह देखते हुए कि ड्रॉपआउट मॉडल से कुछ न्यूरॉन्स को दबा देता है?
यदि कुछ न्यूरॉन्स को हटाने से बेहतर प्रदर्शन करने वाला मॉडल होता है, तो पहली परत में कम परतों और कम न्यूरॉन्स के साथ एक सरल तंत्रिका नेटवर्क का उपयोग क्यों नहीं किया जाता है? शुरुआत में एक बड़ा, अधिक जटिल मॉडल क्यों बनाएं और बाद में इसके कुछ हिस्सों …

2
L2 पर L1 नियमितीकरण का उपयोग क्यों किया जाता है?
हानि फ़ंक्शन का उपयोग करके एक रैखिक प्रतिगमन मॉडल का संचालन करना, मुझे नियमितीकरण के बजाय उपयोग क्यों करना चाहिए ?एल1एल1L_1एल2एल2L_2 क्या ओवरफिटिंग को रोकना बेहतर है? क्या यह निर्धारक है (इसलिए हमेशा एक अनूठा समाधान)? क्या यह सुविधा चयन में बेहतर है (क्योंकि विरल मॉडल का निर्माण)? क्या यह …

3
तंत्रिका नेटवर्क में नियमितीकरण विधि चुनना
तंत्रिका नेटवर्क को प्रशिक्षित करते समय, नेटवर्क को नियमित करने के कम से कम 4 तरीके हैं: एल 1 नियमितीकरण एल 2 नियमितीकरण ड्रॉप आउट बैच सामान्यीकरण वज़न साझा करने और कनेक्शन की संख्या कम करने जैसी अन्य चीजों के अलावा, जो कि सख्त अर्थों में नियमितीकरण नहीं हो सकता …

2
क्या ऐसे अध्ययन हैं जो ड्रॉपआउट बनाम अन्य नियमितताओं की जांच करते हैं?
क्या कोई शोधपत्र प्रकाशित हुआ है जो तंत्रिका नेटवर्क के लिए नियमितीकरण के तरीकों के अंतर को दर्शाता है, अधिमानतः विभिन्न डोमेन (या कम से कम विभिन्न डेटासेट) पर? मैं पूछ रहा हूं क्योंकि मुझे वर्तमान में यह एहसास है कि ज्यादातर लोग कंप्यूटर विज़न में नियमितीकरण के लिए केवल …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.