आमतौर पर बोलने वाले तंत्रिका नेटवर्क और आनुवंशिक एल्गोरिदम का उपयोग खेलों में नहीं किया जाता है, और गहरी सीखने के लिए तंत्रिका जाल का उपयोग करने में हालिया रुचि के अलावा, अक्सर खेल के बाहर भी नहीं।
एआई अकादमी में पढ़ाए जाने का मुख्य कारण उनकी व्यावहारिक प्रयोज्यता नहीं है, बल्कि इसलिए कि उन्हें शिक्षण उपकरणों के रूप में समझाने में काफी आसान है - दोनों में गणितीय और जैविक एनालॉग्स हैं जो एक छात्र को यह समझने की अनुमति देते हैं कि वे कैसे काम कर सकते हैं।
वास्तविक दुनिया में, आपको आमतौर पर विश्वसनीयता और पूर्वानुमान की आवश्यकता होती है। सीखने के तरीकों के साथ समस्या यह है कि यदि वे 'जंगली में' सीखते हैं तो वे गलत पैटर्न सीख सकते हैं और अविश्वसनीय हो सकते हैं। एक एनएन या जीए संभावित रूप से एक स्थानीय अधिकतम तक पहुंच सकता है जो कि आवश्यक नहीं है कि उदाहरण के लिए आवश्यक गेमप्ले अनुभव प्रदान करने के लिए पर्याप्त हो। दूसरी बार, यह एक अच्छी रणनीति है, जो अपराजेय है। अधिकांश मनोरंजन उत्पादों में न तो वांछनीय है।
यहां तक कि अगर आप ऑफ़लाइन प्रशिक्षण देते हैं (यानी लॉन्च से पहले, और गेमप्ले के दौरान नहीं), तो डेटा का स्पष्ट रूप से अच्छा दिखने वाला सेट विसंगतियों को छिपा सकता है, जो एक बार एक खिलाड़ी द्वारा पाया जाता है, शोषण करना आसान है। विशेष रूप से एक तंत्रिका नेटवर्क वजन का एक समूह विकसित करता है जो अध्ययन करने के लिए काफी अपारदर्शी है, और इसके द्वारा किए गए निर्णय के बारे में तर्क करना मुश्किल है। एक डिजाइनर के लिए इस तरह के एआई रूटीन को ट्विस्ट करना मुश्किल होगा।
लेकिन शायद सबसे ज्यादा नुकसान की समस्या यह है कि GA और NN आमतौर पर किसी भी गेम डेवलपमेंट टास्क के लिए सबसे अच्छा साधन नहीं हैं। अच्छे शिक्षण उपकरणों के दौरान, विषय डोमेन के पर्याप्त ज्ञान के साथ कोई भी समान परिणाम प्राप्त करने के लिए एक अलग विधि का उपयोग करने के लिए आम तौर पर बेहतर होता है। यह अन्य AI तकनीकों से कुछ भी हो सकता है, जैसे कि सदिश मशीनों या व्यवहार वृक्षों के माध्यम से सरल दृष्टिकोण जैसे कि राज्य मशीनों या यहां तक कि अगर-तब की स्थिति की एक लंबी श्रृंखला। ये दृष्टिकोण डेवलपर के डोमेन ज्ञान का बेहतर उपयोग करते हैं और सीखने के तरीकों की तुलना में अधिक विश्वसनीय और अनुमानित हैं।
मैंने हालांकि सुना है कि कुछ डेवलपर्स ने विकास के दौरान तंत्रिका नेटवर्क का उपयोग किया है ताकि एक रेसट्रैक के चारों ओर एक अच्छा मार्ग खोजने के लिए एक ड्राइवर को प्रशिक्षित किया जा सके, और फिर इस मार्ग को खेल के हिस्से के रूप में भेजा जा सके। ध्यान दें कि अंतिम गेम को कार्य करने के लिए किसी भी तंत्रिका नेटवर्क कोड की आवश्यकता नहीं है, यहां तक कि प्रशिक्षित नेट भी नहीं।
विधि की 'लागत' वास्तव में समस्या नहीं है, संयोग से है। एनएन और जीए दोनों को बेहद सस्ते में लागू किया जा सकता है, एनएन के साथ विशेष रूप से ऋण पूर्व-गणना और अनुकूलन के लिए। मुद्दा वास्तव में यह है कि उनमें से कुछ उपयोगी प्राप्त करने में सक्षम होना।