मान लीजिए कि मेरे पास एक सरल सिंगल लेयर न्यूरल नेटवर्क है, जिसमें एन इनपुट और एक एकल आउटपुट (बाइनरी वर्गीकरण कार्य) है। यदि मैंने आउटपुट नोड में सक्रियण फ़ंक्शन को सिग्मॉइड फ़ंक्शन के रूप में सेट किया है - तो परिणाम एक लॉजिस्टिक प्रतिगमन क्लासिफायरियर है।
इसी परिदृश्य में, यदि मैं आउटपुट सक्रियण को ReLU (रेक्टिफ़ाइड लीनियर यूनिट) में बदलता हूं, तो परिणामी संरचना एसवीएम के समान या समान है?
यदि नहीं तो क्यों?