batch-normalization पर टैग किए गए जवाब

1
पेपर: लेयर नॉर्मलाइज़ेशन, रिकरेंट बैच नॉर्मलाइज़ेशन (2016) और बैच नॉर्मलाइज़्ड आरएनएन (2015) में क्या अंतर है?
तो, हाल ही में एक लेयर नॉर्मलाइज़ेशन पेपर है। केरस पर इसका कार्यान्वयन भी है । लेकिन मुझे याद है कि रिकरेंट बैच नॉर्मलाइजेशन (कोइजमैन, 2016) और बैच नॉर्मलाइज्ड रिकरंट न्यूरल नेटवर्क्स (लॉरेंट, 2015) शीर्षक वाले पेपर हैं । उन तीनों में क्या अंतर है? यह संबंधित कार्य खंड है …

2
क्या बैच सामान्यीकरण का मतलब है कि सिग्मोइड्स ReLUs से बेहतर काम करते हैं?
बैच सामान्यीकरण और ReLUs दोनों गायब होने वाली ढाल समस्या के समाधान हैं। यदि हम बैच सामान्यीकरण का उपयोग कर रहे हैं, तो क्या हमें सिग्मोइड का उपयोग करना चाहिए? या वहाँ ReLUs की विशेषताएं हैं जो उन्हें बैटचन के उपयोग के समय भी सार्थक बनाते हैं? मुझे लगता है …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.