16 ReLU सक्रियण फ़ंक्शन के व्युत्पन्न को किस रूप में परिभाषित किया गया है: ReLU(x)=max(0,x)ReLU(x)=max(0,x) उस विशेष मामले के बारे में क्या है जहां पर फ़ंक्शन में कोई असंतोष है ?x=0x=0 self-study neural-networks — टॉम हेल स्रोत
17 व्युत्पन्न है: f(x)={01if x<0if x>0f(x)={0if x<01if x>0 और में अपरिभाषित ।x=0x=0 इसके पर अपरिभाषित होने का कारण यह है कि इसके बाएँ और दाएँ व्युत्पन्न समान नहीं हैं।x=0x=0 — जिम स्रोत 1 0011x=0x=0 2 अधिवेशन है कि drdx = 1 (x> 0) — neuroguy123 @TomHale उपयोग क्यों नहीं करतेf(0)=12f(0)=12 3 वैसे @TomHale, पर Nouroz रहमान के जवाब देखने quora.com/... : "[...] में निर्मित मेरी नजर में, में पुस्तकालय कार्यों (उदाहरण के लिए: tf.nn.relu()) पर व्युत्पन्न x = 0 शून्य लिया जाता है एक sparser सुनिश्चित करने के लिए मैट्रिक्स ... " — जिम