ReLU सक्रियण फ़ंक्शन का व्युत्पन्न क्या है?


16

ReLU सक्रियण फ़ंक्शन के व्युत्पन्न को किस रूप में परिभाषित किया गया है:

ReLU(x)=max(0,x)

उस विशेष मामले के बारे में क्या है जहां पर फ़ंक्शन में कोई असंतोष है ?x=0

जवाबों:


17

व्युत्पन्न है:

f(x)={0if x<01if x>0

और में अपरिभाषित ।x=0

इसके पर अपरिभाषित होने का कारण यह है कि इसके बाएँ और दाएँ व्युत्पन्न समान नहीं हैं।x=0


1
01x=0

2
अधिवेशन है कि drdx = 1 (x> 0)
neuroguy123

@TomHale उपयोग क्यों नहीं करतेf(0)=12

3
वैसे @TomHale, पर Nouroz रहमान के जवाब देखने quora.com/... : "[...] में निर्मित मेरी नजर में, में पुस्तकालय कार्यों (उदाहरण के लिए: tf.nn.relu()) पर व्युत्पन्न x = 0 शून्य लिया जाता है एक sparser सुनिश्चित करने के लिए मैट्रिक्स ... "
जिम
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.