क्या असिमोव के नियम डिजाइन द्वारा त्रुटिपूर्ण हैं, या वे व्यवहार में व्यवहार्य हैं?


19

इसहाक असिमोव के प्रसिद्ध थ्री लॉज ऑफ रोबोटिक्स की उत्पत्ति असिमोव की विज्ञान कथा कहानियों के संदर्भ में हुई थी। उन कहानियों में, तीन कानून एक सुरक्षा उपाय के रूप में कार्य करते हैं, ताकि असामयिक या छेड़छाड़ की स्थितियों से बचने के लिए कहर में विस्फोट किया जा सके।

अधिक बार नहीं, असिमोव के बयानों से उन्हें तोड़ने का एक तरीका मिलेगा, जिससे लेखक को खुद कानूनों में कई संशोधन करने होंगे। उदाहरण के लिए, अपनी कुछ कहानियों में, उन्होंने पहले कानून को संशोधित किया , एक चौथा (या ज़ेरोथ) कानून जोड़ा , या सभी कानूनों को पूरी तरह से हटा दिया

हालांकि, यह तर्क देना आसान है कि, लोकप्रिय संस्कृति में, और यहां तक ​​कि एआई अनुसंधान के क्षेत्र में भी, रोबोटिक्स के कानूनों को काफी गंभीरता से लिया जाता है। कानूनों की विभिन्न, व्यक्तिपरक और पारस्परिक रूप से अनन्य व्याख्याओं की साइड समस्या को अनदेखा करना, क्या कोई तर्क हैं जो कानूनों को खुद को उनके डिजाइन द्वारा आंतरिक रूप से दोषपूर्ण साबित कर रहे हैं, या, वैकल्पिक रूप से, वास्तविकता में उपयोग के लिए पर्याप्त मजबूत हैं? इसी तरह, एक बेहतर, सख्त सुरक्षा के उद्देश्य के लिए डिज़ाइन किया जा रहा है?


Killbot Hellscape से सावधान रहें! xkcd.com/1613
NietzscheanAI

हम इस संभावना को नहीं
भूलते हैं

चर्चा शुरू करने में असिमोव के कानून सिर्फ एक छोटे से प्रयास हैं। बहुत अधिक गहन चर्चा के लिए, निक बोस्सम द्वारा "सुपरिन्टिलेजेंस" पढ़ें - यह उतना ही विस्तृत है जितना कि यह वर्तमान ज्ञान और समझ पर आधारित है।
फ्लोरिन आंद्रेई

जवाबों:


12

असिमोव के नियम व्यवहार में उपयोग किए जाने के लिए पर्याप्त मजबूत नहीं हैं। ताकत तब भी एक विचार नहीं है, जब यह विचार किया जाए कि जब से वे अंग्रेजी शब्दों में लिखे गए हैं, तो पहले किसी भी अर्थ के लिए विषय के रूप में व्याख्या करनी होगी। आप यहाँ इसकी एक अच्छी चर्चा पा सकते हैं ।

एक अंश का अनुवाद करने के लिए:

आप इन चीजों को कैसे परिभाषित करते हैं? आप "मानव" को कैसे परिभाषित करते हैं, पहले बिना लगभग हर मुद्दे पर स्टैंड लेते हैं। और अगर "मानव" काफी मुश्किल नहीं था, तो आपको "नुकसान" को परिभाषित करना होगा, और आपको फिर से वही समस्या है। उन शब्दों के लिए आपके द्वारा दी गई लगभग कोई भी ठोस स्पष्ट परिभाषाएं - जो मानव अंतर्ज्ञान पर भरोसा नहीं करती हैं - परिणाम में दर्शन के अजीब झगड़े, आपके एआई को कुछ ऐसा करने के लिए अग्रणी करते हैं जो आप वास्तव में करना नहीं चाहते हैं।

कोई भी आसानी से कल्पना कर सकता है कि असिमोव यह जानने के लिए पर्याप्त स्मार्ट था और वास्तविक-विश्व एआई नियंत्रण प्रोटोकॉल को डिजाइन करने की तुलना में कहानी-लेखन में अधिक रुचि रखता था।

उपन्यास न्यूरोमांसर में , यह सुझाव दिया गया था कि एआई संभवतः एक दूसरे के खिलाफ जांच के रूप में सेवा कर सकते हैं। रे कुर्ज़वील की आसन्न विलक्षणता , या हाइपरिंटिग्नेट एजीआई की संभावना अन्यथा, मनुष्यों के लिए एआई को नियंत्रित करने के लिए बहुत अधिक संभावना नहीं छोड़ी जा सकती है, एकमात्र संभव संभावना के रूप में सहकर्मी-विनियमन को छोड़कर।

यह ध्यान देने योग्य है कि एलीएजर युडकोव्स्की और अन्य लोगों ने एक प्रयोग किया, जिसमें युडकोव्स्की ने बोलने की क्षमता के साथ एक अधीक्षक एआई की भूमिका निभाई, लेकिन एक बंद बॉक्स के बाहर कोई अन्य कनेक्शन नहीं था। चुनौती देने वालों को एआई को हर कीमत पर बॉक्स में रखने का काम सौंपा गया था। युदकोव्स्की दोनों बार बच गए।


क्या आप जानते हैं कि युद्कोव्स्की प्रयोगों का कोई प्रतिलेख कभी जारी किया गया था? आपके द्वारा दिया गया लिंक (और ईमेल उसे तब एक्सचेंज करता है) लिंक एक प्रदान करने के लिए प्रकट नहीं होता है।
नीत्शेचएनाई

@ user217281728 नहीं, मैंने इसकी तलाश की थी, लेकिन ऐसा प्रतीत होता है कि वह इसे बनाए रख रही है, यानी फिर से करने की संभावना बनाए रखने के लिए उसकी रणनीति के तहत। मेरे पास कुछ विचार हैं कि उसने क्या कहा और मुझे क्यों लगता है कि, मुझे खुशी होगी अगर आप मुझे डीएम के रूप में साझा करेंगे।
dynrepsys

मैंने अब यह कर लिया है।
NietzscheanAI

मैं इस धारणा के तहत हूं कि असिमोव यह जानने के लिए पर्याप्त स्मार्ट था, लेकिन मुद्दा यह था कि सरल नियम काम नहीं करते हैं। नकारात्मक उदाहरणों की ओर इशारा करते हुए ("आप इसे सिर्फ लोगों को नुकसान नहीं पहुंचाने के लिए कह सकते हैं, यह काम नहीं करेगा") अपने आप में उपयोगी वास्तविक-विश्व AI नियंत्रण कार्य है।
मैथ्यू ग्रेव्स

2

असिमोव ने तीन कानूनों को विशेष रूप से यह साबित करने के लिए बनाया कि कोई भी तीन कानून पर्याप्त नहीं हैं, चाहे वे पहले कितने भी उचित क्यों न हों। मैं एक आदमी को जानता हूं जो उस आदमी को जानता था और उसने इस बात की पुष्टि की।


2
"मैं एक आदमी को जानता हूं जो उस आदमी को जानता था" ... क्या आपके पास थोड़ा अधिक विश्वसनीय स्रोत नहीं है? मैं आपके उत्तर पर संदेह नहीं कर रहा हूं, लेकिन निश्चित रूप से मामले पर एक उचित उद्धरण मौजूद होना चाहिए।
3442

उसका नाम बेन विलियम्स था। यह Google प्लस पोस्ट है जहाँ उन्होंने असिमोव और थ्री लॉज़ के बारे में अपनी राय बताई: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

असिमोव के रोबोटिक्स के पहले नियम पर विचार करें:

एक रोबोट मनुष्य को घायल नहीं कर सकता है या निष्क्रियता के माध्यम से, एक इंसान को नुकसान पहुंचाने की अनुमति देता है।

आत्म-ड्राइविंग कारों को ध्यान में रखते हुए यह कानून पहले से ही समस्याग्रस्त है।

यहाँ क्या समस्या है, आप पूछें? खैर, आप शायद ट्रॉली समस्या के रूप में जाने जाने वाले एथिक में क्लासिक विचार प्रयोग से परिचित होंगे । समस्या का सामान्य रूप यह है:

ट्रॉली उनके लिए सीधी जाती है। आप लीवर के पास, ट्रेन यार्ड में कुछ दूर खड़े हैं। यदि आप इस लीवर को खींचते हैं, तो ट्रॉली पटरियों के एक अलग सेट पर चली जाएगी। हालाँकि, आपने देखा कि साइड ट्रैक पर एक व्यक्ति है। आपके पास दो विकल्प हैं: (1) कुछ न करें, और ट्रॉली पांच लोगों को मुख्य ट्रैक पर मार देती है। (२) लीवर खींचो, ट्रॉली को साइड ट्रैक पर मोड़ो जहाँ यह एक व्यक्ति को मार डालेगा। सही विकल्प कौन सा है?

स्रोत: विकिपीडिया

सेल्फ-ड्राइविंग कारों को वास्तव में ट्रॉली समस्या पर वास्तविक जीवन विविधताओं को लागू करने की आवश्यकता होगी, जिसका मूल रूप से मतलब है कि आत्म-ड्राइविंग कारों को मानव को मारने के लिए प्रोग्राम करने की आवश्यकता है

बेशक इसका मतलब यह नहीं है कि सभी रोबोटों को मारने के लिए प्रोग्राम करने की आवश्यकता होगी, लेकिन सेल्फ-ड्राइविंग कारें एक प्रकार के रोबोट का एक अच्छा उदाहरण हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.