नहीं , लेकिन एक के साथ । यदि सिस्टम में नैतिकता की पूरी व्यवस्था है, तो हमारे पास रचनात्मक अभी तक नैतिक समस्या-समाधान हो सकता है, लेकिन अन्यथा रचनात्मकता डिफ़ॉल्ट रूप से असुरक्षित होगी।
एक एआई निर्णय लेने के दृष्टिकोण को दो प्रकारों में वर्गीकृत कर सकता है: प्रक्षेपवादी विचारक, और असाधारण विचारक।
इंटरपोलेटिव विचारक जो कुछ भी सीख रहे हैं उसे वर्गीकृत करना और नकल करना सीखते हैं, और अपने प्रशिक्षण डोमेन के बाहर उचित परिणाम देने की कोशिश नहीं करते हैं। आप उन्हें प्रशिक्षण के उदाहरणों के बीच प्रक्षेप के रूप में सोच सकते हैं, और अन्य गणितीय तकनीकों के रूप में गणितीय गारंटी और प्रोविज़ोस के सभी से लाभ उठा सकते हैं।
एक्सट्रैपोलॉजिकल विचारक अंतर्निहित सिद्धांतों में हेरफेर करना सीखते हैं, जो उन्हें उन सिद्धांतों को पहले से अनजाने में संयोजित करने की अनुमति देता है। यहां अंतर्ज्ञान के लिए प्रासंगिक क्षेत्र संख्यात्मक अनुकूलन है , जिनमें से सबसे सरल और सबसे प्रसिद्ध उदाहरण रैखिक प्रोग्रामिंग है , न कि सांख्यिकीय क्षेत्रों के लिए जो मशीन सीखने का जन्म हुआ। आप उन्हें प्रशिक्षण उदाहरणों से परे के रूप में देख सकते हैं (वास्तव में, उनमें से कई को प्रशिक्षण उदाहरणों की आवश्यकता भी नहीं है, या उन सिद्धांतों का अनुमान लगाने के लिए उपयोग करें)।
असाधारण विचारकों का वादा है कि वे इन 'पार्श्व' समाधानों के साथ आ सकते हैं जो लोगों की तुलना में अधिक तेज़ी से हो सकेंगे। इन असाधारण विचारकों के साथ समस्या यह है कि वे केवल बोले गए सिद्धांतों का उपयोग करते हैं, न कि किसी भी ऐसे व्यक्ति का जो उल्लेख करने के लिए बहुत स्पष्ट प्रतीत होता है।
अनुकूलन समस्याओं के समाधान की एक विशेषता यह है कि फीचर वेक्टर अक्सर किसी न किसी तरह से 'चरम' होता है। रैखिक प्रोग्रामिंग में, संभव समाधान स्थान का कम से कम एक शीर्ष इष्टतम होगा, और इसलिए सरल समाधान विधियों में एक इष्टतम शीर्ष (जो कि एक शीर्ष होने की प्रकृति से लगभग भिन्न होता है) लगता है।
एक अन्य उदाहरण के रूप में, एक अंतरिक्ष यान को एक स्थान से दूसरे स्थान पर ले जाने के लिए न्यूनतम ईंधन के घोल को ' बैंग-बैंग ' कहा जाता है , जहाँ आप प्रक्षेपवक्र की शुरुआत और अंत में जितनी जल्दी हो सके शिल्प को गति देते हैं, बीच में अधिकतम गति से तट पर ।
जबकि एक पुण्य है जब सिस्टम सही ढंग से समझा जाता है (बैंग-बैंग है कई मामलों के लिए इष्टतम), इस भयावह है जब सिस्टम को गलत तरीके से समझा गया है। यहां मेरा पसंदीदा उदाहरण डैंटज़िग की आहार समस्या (चर्चा पीडीएफ के पेज 5 पर शुरू होती है) है, जहां वह गणित का उपयोग करके अपने आहार का अनुकूलन करने की कोशिश करता है। अपने पहले बाधा सेट के तहत, वह एक दिन में 500 गैलन सिरका पीना चाहिए। अपने दूसरे के तहत, 200 गुलदस्ता क्यूब्स। अपने तीसरे के तहत, दो पाउंड चोकर। जो विचार स्पष्ट रूप से बुरे विचारों को बनाते हैं, वे प्रणाली में पके हुए नहीं हैं, और इसलिए प्रणाली सहज रूप से उन्हें बताती है।
यदि आप उन ज्ञान और मूल्यों को पूरी तरह से एन्कोड कर सकते हैं, जो एक व्यक्ति इन योजनाओं को एआई में जज करने के लिए उपयोग करता है, तो अतिरिक्त सिस्टम उस व्यक्ति के रूप में सुरक्षित हैं। वे गलत प्रकार की चरम योजनाओं पर विचार करने और अस्वीकार करने में सक्षम होंगे, और आपको सही प्रकार की चरम योजनाओं के साथ छोड़ देंगे।
लेकिन यदि आप नहीं कर सकते हैं, तो यह एक अतिरिक्त निर्णय निर्माता का निर्माण नहीं करने के लिए समझ में आता है, और इसके बजाय एक प्रक्षेपवक्र का निर्माण करता है। अर्थात्, स्वयं से पूछने के बजाय "मैं लक्ष्य X को कैसे पूरा करूं?" यह खुद से पूछ रहा है "एक व्यक्ति इस स्थिति में क्या करेगा?"। लक्ष्य X को पूरा करने में उत्तरार्द्ध बहुत खराब हो सकता है, लेकिन इसमें X को पूरा करने के लिए अन्य लक्ष्यों को त्यागने के पूंछ के जोखिम का बहुत कम है।