आप रेखीय प्रतिगमन का उल्लेख करते हैं। यह लॉजिस्टिक रिग्रेशन से संबंधित है , जिसमें समान तेज अनुकूलन एल्गोरिथ्म है। यदि आपके पास लक्ष्य मानों पर सीमाएं हैं, जैसे कि वर्गीकरण समस्या के साथ, आप लोजिस्टिक प्रतिगमन को रैखिक प्रतिगमन के सामान्यीकरण के रूप में देख सकते हैं।
तंत्रिका नेटवर्क मूल इनपुट्स पर लॉजिस्टिक रिग्रेशन की तुलना में अधिक सामान्य होते हैं, क्योंकि यह एक स्किप-लेयर नेटवर्क से मेल खाती है (कनेक्शन के साथ इनपुट को सीधे आउटपुट से कनेक्ट करने के साथ) छिपे हुए नोड्स के साथ।0
जब आप जैसी सुविधाओं को जोड़ते हैं , तो यह एक एकल छिपी हुई परत में कुछ छिपे हुए नोड को चुनने के समान है। वास्तव में पत्राचार नहीं है , क्योंकि सिग्मॉइड्स के साथ जैसे फ़ंक्शन को मॉडल करने के लिए एक से अधिक छिपे हुए न्यूरॉन लग सकते हैं। जब आप एक तंत्रिका नेटवर्क को प्रशिक्षित करते हैं, तो आप इसे अपने स्वयं के इनपुट-टू-हिडन छिपे हुए वज़न को खोजने देते हैं, जो बेहतर होने की क्षमता है। इसमें अधिक समय भी लग सकता है और यह असंगत हो सकता है। आप अतिरिक्त सुविधाओं के साथ लॉजिस्टिक प्रतिगमन के लिए एक अनुमान के साथ शुरू कर सकते हैं, और इनपुट-टू-हिडन वेट को धीरे-धीरे प्रशिक्षित कर सकते हैं, और यह अंततः अतिरिक्त सुविधाओं के साथ लॉजिस्टिक प्रतिगमन से बेहतर करना चाहिए। समस्या के आधार पर, प्रशिक्षण का समय नगण्य या निषेधात्मक हो सकता है।x31−1x3
एक मध्यवर्ती रणनीति बड़ी संख्या में यादृच्छिक नोड्स का चयन करना है, जो तब होता है जब आप एक तंत्रिका नेटवर्क को इनिशियलाइज़ करते हैं, और इनपुट-टू-हिडन वेट्स को ठीक करते हैं। * -To- आउटपुट वेट पर अनुकूलन रैखिक रहता है। इसे एक्सट्रीम लर्निंग मशीन कहा जाता है । यह कम से कम मूल लॉजिस्टिक प्रतिगमन के रूप में काम करता है।