यहां जवाब गायब करने और विस्फोट करने वाले ग्रेडिएंट को संदर्भित करता है जो कि इन sigmoid-एक्टिवेशन फ़ंक्शन के समान है लेकिन, मुझे लगता है, Reluइसका नुकसान है और यह इसका अपेक्षित मूल्य है। के उत्पादन के लिए कोई सीमा नहीं है Reluऔर इसलिए इसका अपेक्षित मूल्य शून्य नहीं है। मुझे याद है Reluकि tanhमशीन सीखने के विशेषज्ञों के बजाय सबसे लोकप्रिय होने से पहले का समय था sigmoid। इसका कारण यह था कि अपेक्षित मूल्य tanhशून्य के बराबर था और इससे तंत्रिका परतों में अधिक तेजी से गहरी परतों में सीखने में मदद मिली। Reluयह विशेषता नहीं है, लेकिन अगर हम इसके व्युत्पन्न लाभ को एक तरफ रख दें तो यह कितना अच्छा काम कर रहा है। इसके अलावा, मुझे लगता है कि व्युत्पन्न भी प्रभावित हो सकता है। क्योंकि सक्रियण (का उत्पादन)Relu) अद्यतन नियमों की गणना के लिए शामिल हैं।
CNNसामान्य का उत्पादन reluसामान्य नहीं है? कम से कम मैंने ऐसा कभी नहीं देखा।