जेनेटिक एलगोरिदम (GAs) के साथ प्रशिक्षण तंत्रिका नेटवर्क (NNs) न केवल संभव है, कुछ आला क्षेत्र भी हैं जहां प्रदर्शन अक्सर उपयोग किए जाने के लिए पर्याप्त है। इसका एक अच्छा उदाहरण टोपोलॉजी या एनईएटी को बढ़ाने का न्यूरोएवोल्यूशन है , जो गेम जैसे सरल वातावरण में नियंत्रक पैदा करने के लिए एक सफल दृष्टिकोण है।
हालांकि अधिक सामान्य मामले में, दृष्टिकोण बड़े, गहरे नेटवर्क के साथ कई मापदंडों के अनुरूप नहीं है।
इष्टतम मापदंडों के लिए जेनेटिक एल्गोरिदम और अन्य वैश्विक खोजें उन तरीकों से अधिक मजबूत हैं जो ढाल-आधारित एल्गोरिदम नहीं हैं। उदाहरण के लिए, आप चरण फ़ंक्शन सक्रियण या किसी अन्य गैर-भिन्न सक्रियण फ़ंक्शन के साथ एक एनएन को प्रशिक्षित कर सकते हैं। उनकी कहीं और कमजोरियां हैं। एनएएन के लिए उपयोग किए जाने वाले जीए के मामले में प्रासंगिक एक बात यह है कि कुछ संयोजनों में भार पैरामीटर विनिमेय हैं लेकिन अन्य संयोजनों में भारी सह-निर्भर हैं। अलग-अलग मापदंडों के साथ दो समान रूप से अच्छे तंत्रिका नेटवर्क को जोड़ना - जो आप जीए में क्रॉस-ओवर में करेंगे - आमतौर पर खराब प्रदर्शन के साथ तीसरे नेटवर्क में परिणाम होगा। एनईएटी की सफलता आंशिक रूप से एनएन के कनेक्शनों को "बढ़ने" और उन्हें समान तंत्रिका नेटवर्क के बीच मिलान करने के द्वारा उस मुद्दे को संबोधित करने का एक तरीका खोजने में है।
ग्रेडिएंट-आधारित दृष्टिकोण बहुत अधिक कुशल हैं। सामान्य तौर पर, और केवल एनएन के डोमेन में नहीं, यदि आप मापदंडों के संबंध में किसी फ़ंक्शन के ग्रेडिएंट की गणना कर सकते हैं, तो आप अधिकांश अन्य अनुकूलन तकनीकों की तुलना में इष्टतम पैरामीटर तेजी से पा सकते हैं। एक सटीक ढाल एक मूल्यांकन से कम से कम एक छोटे से सुधार की गारंटी देता है, और अधिकांश अन्य ऑप्टिमाइज़र एक जनरेट-एंड-रिट्री प्रतिमान में आते हैं जो इस तरह की गारंटी नहीं दे सकता है। स्थानीय ऑप्टिमा को खोजने की प्रवृत्ति कमजोर पड़ गई है, एनएन में नुकसान के कार्यों के लिए एक बड़ी बाधा नहीं है, और बुनियादी ग्रेडिएंट जैसे गति, आरपीआरओपी, एडम आदि के लिए एक्सटेंशन का उपयोग करके कुछ हद तक सफलता के साथ सामना किया गया है।
एक बड़े मल्टी-लेयर नेटवर्क पर अभ्यास में, जीए खोजों जैसे नेटवर्क मापदंडों को खोजने के लिए ढाल विधियों की संभावना तेजी से होती है। आपको कोई GA-प्रशिक्षित CNNs नहीं मिलेगा जो ImageNet, या यहां तक कि MNIST को हल करता हो, जहां GA ने नेटवर्क वेट्स को बिना खोजे पाया है। हालांकि, जीएएस, या उनमें से कम से कम कुछ वेरिएंट, 100% से इनकार नहीं कर रहे हैं। उदाहरण के लिए इस 2017 ब्लॉग में हाल ही में पेपर की समीक्षा की गई है जिसमें लार्ज-स्केल इवोल्यूशन ऑफ़ इमेज क्लासिफायर शामिल हैं जो एनए हाइपरपरमेटर्स की खोज करने के लिए जीएएस का उपयोग करते हैं जो मशीन लर्निंग में एक महत्वपूर्ण कार्य है, और ग्रेडिएंट-आधारित विधियों का उपयोग करके बहुत ही ट्रैक्टेबल नहीं है।