relu पर टैग किए गए जवाब

1
जब मैं सक्रियण क्रियाओं को मिलाता हूं तो क्या होता है?
कई सक्रियण कार्य हैं, जैसे कि ReLU, sigmoid या । जब मैं सक्रियण क्रियाओं को मिलाता हूं तो क्या होता है?tanhtanh\tanh मैंने हाल ही में पाया कि Google ने Swish सक्रियण फ़ंक्शन विकसित किया है जो (x * sigmoid) है। सक्रियण फ़ंक्शन को बदलकर क्या यह XOR समस्या जैसी छोटी …

1
ReLU बनाम लीक ReLU और पैरामीट्रिक ReLU (यदि कोई हो) के क्या फायदे हैं?
मुझे लगता है कि ReLU के बजाय Leaky ReLU का उपयोग करने का लाभ यह है कि इस तरह से हम लुप्तप्राय ढाल नहीं हो सकते। पैरामीट्रिक ReLU में एकमात्र अंतर के साथ एक ही फायदा है कि नकारात्मक इनपुट के लिए आउटपुट का ढलान एक सीखने योग्य पैरामीटर है …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.