"नैतिक रूप से उप-प्रकार" विकल्पों से बचने के दौरान एआई बाद में सोच सकता है?


13

हाल के पीसी गेम द ट्यूरिंग टेस्ट में , एआई ("टीओएम") को कुछ पहेली कमरों के माध्यम से प्राप्त करने के लिए अवा की मदद चाहिए। TOM का कहना है कि वह पहेलियों को हल करने में असमर्थ है क्योंकि उसे " बाद में सोचने " की अनुमति नहीं है । विशेष रूप से, वह कहता है कि उसने पहले कमरे को हल करने के लिए एक खिड़की के माध्यम से एक बॉक्स को फेंकने के लिए नहीं सोचा होगा। उनके रचनाकारों, कहानी ने, उस क्षमता को बंद कर दिया क्योंकि इस तरह की सोच "नैतिक रूप से सबॉप्टिमल" समाधान का उत्पादन कर सकती है, जैसे एक दबाव प्लेट पर छोड़ने के लिए हाथ को काट देना।

क्या सभी रचनात्मक पहेली-सुलझाने की क्षमताओं को अपने परिणामों को उचित रखने के लिए एआई से हटाने की आवश्यकता होगी, या क्या हम बिना हाथ खोए पार्श्व सोच के कुछ लाभ प्राप्त कर सकते हैं?

जवाबों:


17

नहीं , लेकिन एक के साथ । यदि सिस्टम में नैतिकता की पूरी व्यवस्था है, तो हमारे पास रचनात्मक अभी तक नैतिक समस्या-समाधान हो सकता है, लेकिन अन्यथा रचनात्मकता डिफ़ॉल्ट रूप से असुरक्षित होगी।

एक एआई निर्णय लेने के दृष्टिकोण को दो प्रकारों में वर्गीकृत कर सकता है: प्रक्षेपवादी विचारक, और असाधारण विचारक।

इंटरपोलेटिव विचारक जो कुछ भी सीख रहे हैं उसे वर्गीकृत करना और नकल करना सीखते हैं, और अपने प्रशिक्षण डोमेन के बाहर उचित परिणाम देने की कोशिश नहीं करते हैं। आप उन्हें प्रशिक्षण के उदाहरणों के बीच प्रक्षेप के रूप में सोच सकते हैं, और अन्य गणितीय तकनीकों के रूप में गणितीय गारंटी और प्रोविज़ोस के सभी से लाभ उठा सकते हैं।

एक्सट्रैपोलॉजिकल विचारक अंतर्निहित सिद्धांतों में हेरफेर करना सीखते हैं, जो उन्हें उन सिद्धांतों को पहले से अनजाने में संयोजित करने की अनुमति देता है। यहां अंतर्ज्ञान के लिए प्रासंगिक क्षेत्र संख्यात्मक अनुकूलन है , जिनमें से सबसे सरल और सबसे प्रसिद्ध उदाहरण रैखिक प्रोग्रामिंग है , न कि सांख्यिकीय क्षेत्रों के लिए जो मशीन सीखने का जन्म हुआ। आप उन्हें प्रशिक्षण उदाहरणों से परे के रूप में देख सकते हैं (वास्तव में, उनमें से कई को प्रशिक्षण उदाहरणों की आवश्यकता भी नहीं है, या उन सिद्धांतों का अनुमान लगाने के लिए उपयोग करें)।

असाधारण विचारकों का वादा है कि वे इन 'पार्श्व' समाधानों के साथ आ सकते हैं जो लोगों की तुलना में अधिक तेज़ी से हो सकेंगे। इन असाधारण विचारकों के साथ समस्या यह है कि वे केवल बोले गए सिद्धांतों का उपयोग करते हैं, न कि किसी भी ऐसे व्यक्ति का जो उल्लेख करने के लिए बहुत स्पष्ट प्रतीत होता है।

अनुकूलन समस्याओं के समाधान की एक विशेषता यह है कि फीचर वेक्टर अक्सर किसी न किसी तरह से 'चरम' होता है। रैखिक प्रोग्रामिंग में, संभव समाधान स्थान का कम से कम एक शीर्ष इष्टतम होगा, और इसलिए सरल समाधान विधियों में एक इष्टतम शीर्ष (जो कि एक शीर्ष होने की प्रकृति से लगभग भिन्न होता है) लगता है।

एक अन्य उदाहरण के रूप में, एक अंतरिक्ष यान को एक स्थान से दूसरे स्थान पर ले जाने के लिए न्यूनतम ईंधन के घोल को ' बैंग-बैंग ' कहा जाता है , जहाँ आप प्रक्षेपवक्र की शुरुआत और अंत में जितनी जल्दी हो सके शिल्प को गति देते हैं, बीच में अधिकतम गति से तट पर ।

जबकि एक पुण्य है जब सिस्टम सही ढंग से समझा जाता है (बैंग-बैंग है कई मामलों के लिए इष्टतम), इस भयावह है जब सिस्टम को गलत तरीके से समझा गया है। यहां मेरा पसंदीदा उदाहरण डैंटज़िग की आहार समस्या (चर्चा पीडीएफ के पेज 5 पर शुरू होती है) है, जहां वह गणित का उपयोग करके अपने आहार का अनुकूलन करने की कोशिश करता है। अपने पहले बाधा सेट के तहत, वह एक दिन में 500 गैलन सिरका पीना चाहिए। अपने दूसरे के तहत, 200 गुलदस्ता क्यूब्स। अपने तीसरे के तहत, दो पाउंड चोकर। जो विचार स्पष्ट रूप से बुरे विचारों को बनाते हैं, वे प्रणाली में पके हुए नहीं हैं, और इसलिए प्रणाली सहज रूप से उन्हें बताती है।

यदि आप उन ज्ञान और मूल्यों को पूरी तरह से एन्कोड कर सकते हैं, जो एक व्यक्ति इन योजनाओं को एआई में जज करने के लिए उपयोग करता है, तो अतिरिक्त सिस्टम उस व्यक्ति के रूप में सुरक्षित हैं। वे गलत प्रकार की चरम योजनाओं पर विचार करने और अस्वीकार करने में सक्षम होंगे, और आपको सही प्रकार की चरम योजनाओं के साथ छोड़ देंगे।

लेकिन यदि आप नहीं कर सकते हैं, तो यह एक अतिरिक्त निर्णय निर्माता का निर्माण नहीं करने के लिए समझ में आता है, और इसके बजाय एक प्रक्षेपवक्र का निर्माण करता है। अर्थात्, स्वयं से पूछने के बजाय "मैं लक्ष्य X को कैसे पूरा करूं?" यह खुद से पूछ रहा है "एक व्यक्ति इस स्थिति में क्या करेगा?"। लक्ष्य X को पूरा करने में उत्तरार्द्ध बहुत खराब हो सकता है, लेकिन इसमें X को पूरा करने के लिए अन्य लक्ष्यों को त्यागने के पूंछ के जोखिम का बहुत कम है।


2

नैतिकता में दो या दो से अधिक पक्षों के बीच जरूरतों के रिश्ते शामिल हैं । जैसा कि मैथ्यू ग्रेव्स ने कहा, यदि एआई में पर्याप्त मानवीय संदर्भ (जरूरतों की समझ) का अभाव है, तो यह नैतिक रूप से विकृत व्यवहार पैदा करेगा।

और चलो ईमानदार रहें, कुछ लोग अन्य लोगों की बाहों को काट देंगे और उन्हें दबाव प्लेटों पर डाल देंगे। यहां तक ​​कि हममें से सर्वश्रेष्ठ भी 100% सटीकता के साथ दूसरों की जरूरतों के प्रति सहानुभूति नहीं रख पाएंगे - सबसे अच्छा, हम अनुमान लगा रहे हैं। और फिर वे दुर्लभ स्थितियां हैं जहां मैं वास्तव में चाहता हूं कि आप मेरी बांह काट लें और इसे एक दबाव प्लेट पर रख दें, शायद किसी प्रियजन को बचाने के लिए।

यदि हम एक ऐसी चीज़ बना सकते हैं जो किसी भी मनमानी स्थिति में एक मानव की आवश्यकता हो सकती है, तो हम सहानुभूति रख सकते हैं , तो हमने या तो ए बनाया होगा) एक कृत्रिम मानव बुद्धि (एएचआई) (जो मनुष्य की तरह कम या ज्यादा गिरने योग्य हो सकती है), या बी) एक ऐसा तांडव जो मानव समय-तराजू की तुलना में बहुत तेजी से मानव की सभी संभावित जरूरतों के बारे में बता सकता है - जिस स्थिति में आपको एक सचेत AI की आवश्यकता नहीं होगी , क्योंकि सभी मानवीय आवश्यकताओं और समाधानों को औपचारिक विनिर्देश के माध्यम से पूर्व-गणना की जा सकती है, जो शायद विचार करना बेतुका है।


0

आप प्रोग्रामिंग को डिजाइन का एक नैतिक हिस्सा भी मान सकते हैं। एआई नैतिक रूप से महत्वपूर्ण है या नहीं इसके आधार पर जो निर्देश दिया गया है, उसके आधार पर कार्य करेगा। यह उन मापदंडों का भी हिस्सा हो सकता है जो समाधान खोजने की प्रक्रिया को बनाते हैं, जो अधिक परिष्कृत और रचनात्मक समाधान के लिए अनुमति दे सकते हैं।

हम सामान्य परिस्थितियों में नैतिकता की मूल बातें समझते हैं, लेकिन अगर हम यह अनुमान नहीं लगा सकते कि कोई भी इंसान नैतिक रूप से कैसे व्यवहार करेगा, तो हम यह सोच सकते हैं कि एक एआई क्या नहीं करेगा।

जब तक हमारे पास एक एआई ड्राइव करने वाले तंत्र पर नियंत्रण है, हम सुनिश्चित करते हैं कि नैतिक विफलताओं को इंजेक्ट करने की जिम्मेदारी है। समस्या स्वयं को निर्देश दिए गए AI में निर्देशों को ओवरराइड करने की क्षमता के साथ है। (सीएफ असिमोव कानून।)

एआई जिस तरह से रचनात्मक है वह उस मामले में अप्रासंगिक है।


-1

इसका बहुत कुछ विचार की चौड़ाई पर निर्भर करता है। उदाहरण के लिए, पार्श्व सोच के मध्यम और दीर्घकालिक प्रभाव क्या होंगे? रोबोट एक दबाव प्लेट के लिए एक हाथ को बदल सकता है लेकिन इसका मतलब यह होगा कि उस व्यक्ति के पास अब एक हाथ नहीं था, सबसे अच्छा एक कार्यात्मक सीमा है, कि व्यक्ति खून बह सकता है और मर सकता है / गंभीर रूप से विवश हो सकता है, और वह व्यक्ति (और लोगों में) सामान्य) दोनों अब सहयोग नहीं करेंगे और रोबोट को खत्म करने की कोशिश करेंगे। लोग बाद में सोच सकते हैं क्योंकि इन बातों पर विचार करें - नैतिकता वास्तव में दिशानिर्देशों के एक सेट से ज्यादा कुछ नहीं है जो इन विचारों को शामिल करते हैं। रोबोट के रूप में अच्छी तरह से कर सकते हैं, यह इन बाहरी लोगों पर विचार करने के लिए डिज़ाइन किया गया था।

यदि सभी अन्य विफल होते हैं,

असिमोव के रोबोटिक्स के नियम: (0. एक रोबोट मानवता को नुकसान नहीं पहुंचा सकता है, या, निष्क्रियता से, मानवता को नुकसान पहुंचाने की अनुमति दे सकता है।) 1. एक रोबोट एक इंसान को घायल नहीं कर सकता है या निष्क्रियता के माध्यम से, एक इंसान को आने की अनुमति दे सकता है। नुकसान। 2. एक रोबोट को मानव द्वारा दिए गए आदेशों का पालन करना चाहिए, सिवाय इसके कि इस तरह के आदेश पहले कानून के साथ संघर्ष करेंगे। 3. एक रोबोट को अपने अस्तित्व की रक्षा तब तक करनी चाहिए जब तक इस तरह का संरक्षण फर्स्ट या सेकेंड लॉ के साथ नहीं होता

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.