अलग-अलग श्रेणियों से संबंधित इनपुट की संभावनाओं को निर्धारित करके, क्लास लर्निंग एल्गोरिदम जैसे क्लासिफायर, इनपुट डेटा को मॉडल करते हैं । कक्षाओं की एक मनमानी संख्या के लिए, आम तौर पर एक सॉफ्टमैक्स परत को मॉडल में जोड़ा जाता है ताकि आउटपुट में डिजाइन द्वारा संभाव्य गुण हो सकें:
y⃗ = सॉफ्टमैक्स ( ए⃗ ) ≡ १Σमैंई- एमैं× [ ई- ए1, ई- ए2, । । । , ई- एn]
0 ≤ yमैं≤ 1 सब मैं के लिए
y1+ य2+ । । । + यn= 1
इधर, softmax परत से पहले परत की सक्रियता है।ए
यह दो वर्गों के लिए पूरी तरह से मान्य है, हालांकि, एक भी न्यूरॉन का उपयोग कर सकता है (दो के बजाय) यह देखते हुए कि इसका आउटपुट संतुष्ट करता है:
0≤ y≤ 1 सभी आदानों के लिए।
यह अगर एक परिवर्तन (जो विभेदक / backpropagation प्रयोजनों के लिए चिकनी) लागू किया जाता है, जो नक्शे आश्वासन दिया जा सकता करने के लिए ऐसी है कि इसके बाद के संस्करण की स्थिति उत्पन्न होने। सिग्मॉइड फ़ंक्शन हमारे मानदंडों को पूरा करता है। इसके बारे में कुछ खास नहीं है, एक साधारण गणितीय प्रतिनिधित्व के अलावा,
एy
सिग्मॉइड ( a ) ≡ σ( a ) ≡ १1 +ई- ए
उपयोगी गणितीय गुण (भेदभाव, 0 और 1, आदि के बीच बँधा हुआ), कम्प्यूटेशनल दक्षता और सही ढलान होना जैसे कि नेटवर्क के वज़न को अपडेट करना अनुकूलन उद्देश्यों के लिए आउटपुट में एक छोटा लेकिन औसत दर्जे का परिवर्तन होगा।
निष्कर्ष
मुझे यकीन नहीं है कि अगर @ itdxer का तर्क जो सॉफ्टमैक्स और सिग्मॉइड दिखाता है, यदि मान्य है, लेकिन वह बाइनरी क्लासिफायर के लिए 2 न्यूरॉन्स के विपरीत 1 न्यूरॉन चुनने के बारे में सही है क्योंकि कम मापदंडों और गणना की आवश्यकता है। मुझे द्विआधारी क्लासिफायर के लिए दो न्यूरॉन्स का उपयोग करने के लिए भी आलोचना की गई है, क्योंकि यह "शानदार है"।