यहां जवाब गायब करने और विस्फोट करने वाले ग्रेडिएंट को संदर्भित करता है जो कि इन sigmoid
-एक्टिवेशन फ़ंक्शन के समान है लेकिन, मुझे लगता है, Relu
इसका नुकसान है और यह इसका अपेक्षित मूल्य है। के उत्पादन के लिए कोई सीमा नहीं है Relu
और इसलिए इसका अपेक्षित मूल्य शून्य नहीं है। मुझे याद है Relu
कि tanh
मशीन सीखने के विशेषज्ञों के बजाय सबसे लोकप्रिय होने से पहले का समय था sigmoid
। इसका कारण यह था कि अपेक्षित मूल्य tanh
शून्य के बराबर था और इससे तंत्रिका परतों में अधिक तेजी से गहरी परतों में सीखने में मदद मिली। Relu
यह विशेषता नहीं है, लेकिन अगर हम इसके व्युत्पन्न लाभ को एक तरफ रख दें तो यह कितना अच्छा काम कर रहा है। इसके अलावा, मुझे लगता है कि व्युत्पन्न भी प्रभावित हो सकता है। क्योंकि सक्रियण (का उत्पादन)Relu
) अद्यतन नियमों की गणना के लिए शामिल हैं।
CNN
सामान्य का उत्पादन relu
सामान्य नहीं है? कम से कम मैंने ऐसा कभी नहीं देखा।