activation-function पर टैग किए गए जवाब

2
सक्रियण फ़ंक्शन कैसे चुनें?
मैं आउटपुट लेयर के लिए एक्टिवेशन फंक्शन को चुनता हूं जो मुझे जरूरत के आउटपुट और ऐक्टिवेशन फंक्शन के गुणों पर निर्भर करता है। उदाहरण के लिए, जब मैं संभावनाओं के साथ काम कर रहा होता हूं, तो मैं सिग्मॉइड फ़ंक्शन का चयन करता हूं, जब मैं सकारात्मक मूल्यों के ...

1
जब मैं सक्रियण क्रियाओं को मिलाता हूं तो क्या होता है?
कई सक्रियण कार्य हैं, जैसे कि ReLU, sigmoid या । जब मैं सक्रियण क्रियाओं को मिलाता हूं तो क्या होता है?tanhtanh\tanh मैंने हाल ही में पाया कि Google ने Swish सक्रियण फ़ंक्शन विकसित किया है जो (x * sigmoid) है। सक्रियण फ़ंक्शन को बदलकर क्या यह XOR समस्या जैसी छोटी ...

2
तंत्रिका नेटवर्क में न्यूरॉन के सक्रिय होने का क्या मतलब है?
मैं सिर्फ न्यूरॉन कवरेज की अवधारणा पर ठोकर खाई, जो एक तंत्रिका नेटवर्क में सक्रिय न्यूरॉन्स और कुल न्यूरॉन्स का अनुपात है। लेकिन न्यूरॉन के लिए "सक्रिय" होने का क्या मतलब है? मुझे पता है कि सक्रियण कार्य क्या हैं, लेकिन सक्रिय होने का क्या मतलब है जैसे कि ReLU ...

1
ReLU बनाम लीक ReLU और पैरामीट्रिक ReLU (यदि कोई हो) के क्या फायदे हैं?
मुझे लगता है कि ReLU के बजाय Leaky ReLU का उपयोग करने का लाभ यह है कि इस तरह से हम लुप्तप्राय ढाल नहीं हो सकते। पैरामीट्रिक ReLU में एकमात्र अंतर के साथ एक ही फायदा है कि नकारात्मक इनपुट के लिए आउटपुट का ढलान एक सीखने योग्य पैरामीटर है ...
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.