1
एकल परत NeuralNetwork ReLU सक्रियण SVM के बराबर है?
मान लीजिए कि मेरे पास एक सरल सिंगल लेयर न्यूरल नेटवर्क है, जिसमें एन इनपुट और एक एकल आउटपुट (बाइनरी वर्गीकरण कार्य) है। यदि मैंने आउटपुट नोड में सक्रियण फ़ंक्शन को सिग्मॉइड फ़ंक्शन के रूप में सेट किया है - तो परिणाम एक लॉजिस्टिक प्रतिगमन क्लासिफायरियर है। इसी परिदृश्य में, …