लॉजिस्टिक एक्टिवेशन फ़ंक्शंस का उपयोग करते समय, यह सच है कि प्रत्येक यूनिट के आउटपुट से संबंधित इनपुट्स लॉजिस्टिक रिग्रेशन के लिए समान हैं। लेकिन, यह वास्तव में लॉजिस्टिक प्रतिगमन प्रदर्शन करने वाली प्रत्येक इकाई के समान नहीं है। अंतर यह है कि, लॉजिस्टिक रिग्रेशन में, वेट और पूर्वाग्रह को ऐसे चुना जाता है कि आउटपुट बेस्ट दिए गए टारगेट वैल्यू (लॉग / क्रॉस-एंट्रोपी लॉस का उपयोग करके) से मेल खाता है। इसके विपरीत, एक तंत्रिका जाल में छिपी हुई इकाइयां अपने आउटपुट को डाउनस्ट्रीम इकाइयों में भेजती हैं। व्यक्तिगत छिपी इकाइयों के लिए मिलान करने के लिए कोई लक्ष्य आउटपुट नहीं है। बल्कि, वज़न और पूर्वाग्रह कुछ उद्देश्य फ़ंक्शन को कम करने के लिए चुना जाता है जो नेटवर्क के अंतिम आउटपुट पर निर्भर करता है।
लॉजिस्टिक रिग्रेशन करने के बजाय, यह प्रत्येक छिपी हुई इकाई के बारे में कुछ फीचर स्पेस में एक समन्वय के रूप में सोचने के लिए अधिक समझदार हो सकता है। इस दृष्टिकोण से, एक छिपी हुई परत का उद्देश्य इसके इनपुट को बदलना है - इनपुट वेक्टर को छिपी हुई परत सक्रियण के वेक्टर में मैप किया जाता है। आप इसे प्रत्येक छिपी इकाई के अनुरूप आयाम के साथ एक फीचर स्पेस में इनपुट मैपिंग के रूप में सोच सकते हैं।
आउटपुट परत को अक्सर एक मानक शिक्षण एल्गोरिथ्म के रूप में सोचा जा सकता है जो इस सुविधा स्थान में संचालित होता है। उदाहरण के लिए, एक वर्गीकरण कार्य में, क्रॉस एन्ट्रॉपी लॉस के साथ लॉजिस्टिक आउटपुट यूनिट का उपयोग फीचर स्पेस में लॉजिस्टिक रिग्रेशन (या सॉफ्टमैक्स आउटपुट का उपयोग करते हुए मल्टीमोनियल लॉजिस्टिक रिग्रेशन) करने के बराबर है। एक प्रतिगमन कार्य में, वर्ग त्रुटि के साथ एक रेखीय आउटपुट का उपयोग करना फीचर स्पेस में कम से कम वर्ग रैखिक प्रतिगमन प्रदर्शन करने के बराबर है।
फ़ीचर स्पेस मैपिंग और क्लासिफिकेशन / रिग्रेशन फंक्शन (फ़ीचर स्पेस में) सीखने के लिए नेटवर्क राशियों को प्रशिक्षित करना, जो एक साथ, सबसे अच्छा प्रदर्शन देते हैं। ग़ैर-छिपी छिपी हुई इकाइयों को मानते हुए, छिपी हुई परत की चौड़ाई बढ़ाना या कई छिपी हुई परतों को ढेर करना अधिक जटिल फ़ीचर स्पेस मैपिंग की अनुमति देता है, जिससे अधिक जटिल कार्यों को फिट किया जा सकता है।