sigmoid-curve पर टैग किए गए जवाब

4
तनह लगभग हमेशा एक सक्रियण फ़ंक्शन के रूप में सिग्मॉइड से बेहतर क्यों होता है?
एंड्रयू एनजी के दशक में Coursera पर तंत्रिका नेटवर्क और दीप लर्निंग पाठ्यक्रम वह कहता है कि का उपयोग कर लगभग हमेशा उपयोग करने के लिए बेहतर है ।tanhtanhtanhsigmoidsigmoidsigmoid कारण वह देता है कि का उपयोग कर उत्पादन है केंद्र नहीं बल्कि आसपास 0 से के 0.5, और इस "अगले …

3
Relu बनाम सिग्मॉइड बनाम सॉफ्टमैक्स को छिपे हुए परत न्यूरॉन्स के रूप में
मैं केवल एक छिपी हुई परत के साथ एक सामान्य तंत्रिका नेटवर्क के साथ खेल रहा था, टेंसोफ़्लो द्वारा, और फिर मैंने छिपी हुई छिपकली के लिए अलग सक्रियता की कोशिश की: Relu अवग्रह सॉफ्टमैक्स (अच्छी तरह से, आमतौर पर सॉफ्टमैक्स का उपयोग अंतिम परत में किया जाता है ..) …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.