4
रेक्टिलाइनियर सक्रियण फ़ंक्शन तंत्रिका नेटवर्क में लुप्त हो रही ढाल समस्या को कैसे हल करता है?
मैंने पाया कि रैखिक नेटवर्क (ReLU) ने कई स्थानों पर तंत्रिका नेटवर्क के लिए लुप्त हो रही ढाल समस्या के समाधान के रूप में प्रशंसा की । यही है, एक सक्रियण फ़ंक्शन के रूप में अधिकतम (0, x) का उपयोग करता है। जब सक्रियण सकारात्मक होता है, तो यह स्पष्ट …