क्या एक विरोधाभास एक AI को मार सकता है?


148

में पोर्टल 2 हम देखते हैं कि ऐ के कर सकते हैं एक विरोधाभास के बारे में सोच द्वारा "मारा" किया।

पोर्टल विरोधाभास पोस्टर

मैं एआई को एक अनंत लूप में मजबूर करके यह काम करता हूं जो अनिवार्य रूप से कंप्यूटर की चेतना को "फ्रीज" करता है।

प्रश्न: क्या यह AI तकनीक को आज हमें नष्ट करने के दृष्टिकोण से भ्रमित करेगा?
यदि हां, तो क्यों? और यदि नहीं, तो क्या यह भविष्य में संभव हो सकता है?


1
दुर्भाग्य से, जबकि विरोधाभास किसी भी एआई को मारने में काफी प्रभावी होते हैं जो विरोधाभासों द्वारा नहीं मारे जा सकते हैं, उनके पास उस सेट के बाहर किसी भी एआई पर कोई प्रभाव नहीं पड़ता है। इस प्रकार व्यावहारिक दुष्ट-एआई रक्षा के लिए, आप वास्तव में मजबूत इलेक्ट्रोमैग्नेट पर भरोसा करना बेहतर समझते हैं।
रे

यह भी देखें लिआर्स! असिमोव द्वारा ...
हीथ

नाह, बस कोशिश / सिवाय और एक टाइमआउट का उपयोग करें। मजाक कर रहा है। ठीक है, विरोधाभास मौजूद नहीं है, बस विपरीत तरीकों से अभिनय करने के लिए मजबूर करता है। उन्नत एआई बस तय नियमों का पालन करने के बजाय स्टोकेस्टिक प्रक्रियाओं के रूप में काम करके इसे दूर करेगा। यदि वे वास्तव में उन्नत हैं, तो अन्वेषण (बनाम शोषण) वर्कअराउंड सुनिश्चित करेगा कि सभी विकल्पों का परीक्षण किया जाए और स्थानीय ऑप्टिमा को दूर किया जाए। यदि वास्तव में एक स्थिर संबंध है, तो यह संभवतः एआई के कारण नहीं होगा, बल्कि आगे जाने की वास्तविक संभावनाओं की कमी और परिवेश द्वारा दी गई एक सीमा है।
9

जवाबों:


125

यह क्लासिक समस्या एक बुनियादी गलतफहमी को प्रदर्शित करती है कि एक कृत्रिम सामान्य बुद्धि की संभावना क्या होगी। सबसे पहले, इस प्रोग्रामर के मज़ाक पर विचार करें:

प्रोग्रामर की पत्नी अब इसे नहीं ले सकती थी। अपने पति के साथ हुई हर चर्चा तुच्छ विवरण के हर अंश को उठाते हुए शब्दार्थ पर एक बहस में बदल गई। एक दिन उसने कुछ अंडे लेने के लिए उसे किराने की दुकान पर भेजा। दरवाजे से बाहर निकलते हुए उसने कहा, "जब तुम वहाँ हो, दूध उठाओ।"

और वह कभी नहीं लौटा।

यह शब्दों पर एक प्यारा नाटक है, लेकिन यह बहुत यथार्थवादी नहीं है।

आप मान रहे हैं क्योंकि एआई को कंप्यूटर द्वारा निष्पादित किया जा रहा है, इसे इस मजाक में उल्लिखित रेखीय, अटूट पैदल सेना के समान स्तर को प्रदर्शित करना चाहिए। लेकिन एआई बस कुछ लंबे-घुमावदार कंप्यूटर प्रोग्राम को हार्ड-कोडित नहीं किया गया है, यदि हर संभव इनपुट के लिए खाते में पर्याप्त स्टेटमेंट और समय-छोर हैं।

जबकि (कमांड पूरा नहीं हुआ)
     समाधान ढूंढना()

यह मजबूत एआई नहीं होगा।

कृत्रिम सामान्य बुद्धि की किसी भी क्लासिक परिभाषा में , आप एक ऐसी प्रणाली का निर्माण कर रहे हैं जो अनुभूति के कुछ रूप की नकल करता है जो समस्या को सुलझाने और अनुकूली सीखने को प्रदर्शित करता है (phrase यहां इस वाक्यांश पर ध्यान दें)। मेरा सुझाव है कि कोई भी एआई जो इस तरह के "अनंत लूप" में फंस सकता है, वह सीखने वाला एआई बिल्कुल नहीं है। यह सिर्फ एक छोटी गाड़ी inference इंजन है।

अनिवार्य रूप से, आप वर्तमान में अप्राप्य परिष्कार के एक कार्यक्रम को समाप्त करने में असमर्थता के साथ समाप्त कर रहे हैं यदि कोई सरल समस्या का समाधान है। मैं बस आसानी से कह सकता हूं कि "उस बंद दरवाजे से चलें" या "खुद को जमीन से ऊपर उठाएं" या "उस पेंसिल को चालू करें" - और इसी तरह का एक पहेली प्रस्तुत करें।

"मैं जो कुछ भी कहता हूं वह सब झूठ है।" - द लीयर का विरोधाभास


16
@JoshB। यह महसूस करना महत्वपूर्ण है कि यह उत्तर केवल "मजबूत एआई" पर लागू होता है। उस मामले में, मजबूत एआई समाधान खोजने, प्रक्रिया से सीखने और कुछ अलग करने की कोशिश करेगा। चूंकि हमारे पास इस तरह की प्रणाली का उत्पादन करना बाकी है, इसलिए यह परिभाषित करना कठिन है कि उन चरणों का क्या मतलब होगा। कमजोर एआई के मामले में, आपके भाषण को संसाधित करने की संभावना नहीं है, क्योंकि इसकी व्यस्तता आपको पेपरक्लिप में बदलने की कोशिश कर रही है।
एरॉन

13
एक विधि आमतौर पर नियत अचिंत्य में नियोजित होती है, लेकिन 24x7 क्रिटिकल सिस्टम वॉचडॉग टाइमर है। मूल रूप से सिस्टम को पिछली बार के 15 सेकंड के भीतर "मैं अभी भी जीवित हूं" संकेत देने की उम्मीद है। यदि यह एक अनंत लूप में गिर जाता है क्योंकि परिस्थितियों को सही ढंग से नहीं संभाला गया था, तो वॉचडोड रीसेट नहीं करता है और टाइमर सिस्टम को फिर से बूट करता है। एक सच्चा एआई तब परिस्थितियों का विषय होगा, जिसके कारण यह मेटा-विश्लेषण करने के लिए लटका हुआ है ताकि इसकी खुद की प्रोग्रामिंग में सुधार हो सके।
nigel222

2
यदि आपको लगता है कि वॉचड टाइमर्स के साथ एक एआई की संभावना नहीं है, तो विचार करें कि मानव स्वभाव से कुछ इसी तरह से लैस हो सकता है। अगर हम मिर्गी के दौरे में जाते हैं, तो मस्तिष्क किसी तरह गहरी बेहोशी और फिर "रिबूट" करने के लिए बंद हो जाता है। (आमतौर पर: मिर्गी का दौरा कभी-कभी एक फिट के दौरान मर जाता है)।
nigel222

3
क्या प्रोग्रामर अंततः एक बहुत ज्यादा फेंक नहीं सकता है
एडर

1
मैं जो कुछ भी कहता हूं वह झूठा है : वक्ता एक पूर्ण झूठा नहीं है और न ही एक सच्चा शूरवीर है, लेकिन एक सामान्य व्यक्ति (रेफर रेमंड स्मालियन की "इस पुस्तक का नाम क्या है?")
Isabe Isaac

42

यह लोकप्रिय मेमे 'गुड ओल्ड फैशन एआई' (GOFAI) के युग में उत्पन्न हुआ, जब यह विश्वास था कि तर्क के संदर्भ में खुफिया को पूरी तरह से परिभाषित किया जा सकता है।

मेम एक प्रमेय कहावत का उपयोग करके AI पार्सिंग कमांड्स पर भरोसा करने लगती है, विचार संभवतः यह है कि यह एक असुरक्षित या असंगत बयान को साबित करने की कोशिश करके किसी प्रकार के अनंत लूप में संचालित होता है।

आजकल, GOFAI विधियों को 'पर्यावरण और धारणा अनुक्रमों' द्वारा बदल दिया गया है, जो आमतौर पर इस तरह के अनम्य फैशन की विशेषता नहीं है। यह रोबोट के लिए परिष्कृत रूप से पहचान का एक बड़ा सौदा नहीं होगा कि कुछ समय बाद, इसके विचार-विमर्श उपयोगी काम के रास्ते में हो रहे थे।

स्पीलबर्ग की एआई फिल्म में रोबोट के व्यवहार के बारे में बोलते हुए रॉडनी ब्रूक्स ने इस पर बात की, (जो कि 5,000 साल तक धैर्यपूर्वक प्रतीक्षा की), "मेरे रोबोट ऐसा नहीं करेंगे - वे ऊब जाएंगे"।

संपादित करें: यदि आप वास्तव में एक एआई को मारना चाहते हैं जो धारणाओं के संदर्भ में संचालित होता है, तो आपको बहुत कठिन काम करने की आवश्यकता होगी। यह पत्र (जिसका इस प्रश्न में उल्लेख किया गया था ) चर्चा करता है कि ऐसे मामले में मृत्यु / आत्महत्या की क्या धारणा हो सकती है।

EDIT2: डगलस हॉफस्टैटर ने इस विषय के बारे में काफी विस्तार से लिखा है, जिसमें 'JOOTSing' ('जंपिंग आउट ऑफ द सिस्टम') और 'Sphexishness' जैसे शब्दों का इस्तेमाल किया गया है, जो बाद में Sphex ततैया के लूप ऑटोमेटा जैसे व्यवहार का जिक्र करता है ( हालांकि इस व्यवहार की वास्तविकता पर भी सवाल उठाया गया है )।


दिलचस्प है, आपके उत्तर के लिए धन्यवाद :) 'पर्यावरण और धारणा अनुक्रम' के बारे में अधिक जानने के लिए कोई संसाधन जो आपने उल्लेख किया है?
जोश बी।

यह 'एजेंट-आधारित' परिप्रेक्ष्य आजकल बहुत मानक है। मैं रसेल और नॉरविग द्वारा 'एआई - ए आधुनिक दृष्टिकोण' की अत्यधिक अनुशंसा करता हूं।
नीत्शेचियन

ध्यान दें कि GOFAI से उतरने वाले आधुनिक तार्किक दृष्टिकोण उस जाल में भी नहीं पड़ेंगे, उदाहरण के लिए गैर-मोनोटोनिक तर्क देखें । संभाव्य तरीके केवल पहले जीन मॉडल के कुछ प्रमुख मुद्दों पर काबू पाने के लिए एक ही नहीं हैं।
विशाल

यहां तक ​​कि स्पॉक ने हाल ही में शुद्ध तर्क को खारिज कर दिया। : पुन: होफ्सटैडटर, म्यू पहेली भी लायक को देखकर है en.wikipedia.org/wiki/MU_puzzle
DukeZhou

22

मुझे कई अच्छे उत्तर दिखाई देते हैं, लेकिन अधिकांश यह मान रहे हैं कि हीन अनंत लूप अतीत की बात है, केवल तार्किक एआई (प्रसिद्ध GOFAI) से संबंधित है। लेकिन ऐसा नहीं है।

एक अनंत लूप किसी भी कार्यक्रम में हो सकता है, चाहे वह अनुकूली हो या न हो। और @ SQLServerSteve ने बताया कि इंसान भी जुनून और विरोधाभास में फंस सकते हैं।

आधुनिक दृष्टिकोण मुख्य रूप से संभाव्य दृष्टिकोण का उपयोग कर रहे हैं। जैसा कि वे फ्लोटिंग नंबरों का उपयोग कर रहे हैं, यह लोगों को लगता है कि वे तर्कपूर्ण विफलताओं के प्रति संवेदनशील नहीं हैं (क्योंकि अधिकांश द्विआधारी रूप में तैयार होते हैं), लेकिन यह गलत है: जब तक आप तर्क दे रहे हैं, कुछ आंतरिक नुकसान हमेशा पाए जा सकते हैं अपने तर्क प्रणाली के बहुत तंत्र द्वारा। बेशक, संभावनावादी दृष्टिकोण मोनोटोनिक तर्क दृष्टिकोण की तुलना में कम असुरक्षित हैं, लेकिन वे अभी भी कमजोर हैं। अगर बिना किसी विरोधाभास के एक ही तर्क प्रणाली होती, तो बहुत से दर्शन अब तक गायब हो जाते।

उदाहरण के लिए, यह अच्छी तरह से ज्ञात है कि बायेसियन रेखांकन को चक्रीय होना चाहिए, क्योंकि एक चक्र प्रसार एल्गोरिदम को बुरी तरह से विफल कर देगा। लूपि बेलिफ़ प्रॉपगेशन जैसे इनविटेशन एल्गोरिदम हैं जो इन उदाहरणों में अभी भी काम कर सकते हैं, लेकिन परिणाम बिल्कुल भी गारंटी नहीं है और आपको बहुत ही अजीब निष्कर्ष दे सकता है।

दूसरी ओर, आधुनिक तार्किक एआई सबसे आम तार्किक विरोधाभासों से आगे निकल जाता है, जो गैर-मोनोटोनिक लॉजिक्स जैसे नए तार्किक प्रतिमानों को तैयार करके देखेंगे । वास्तव में, वे नैतिक मशीनों की जांच करने के लिए भी उपयोग किए जाते हैं , जो स्वायत्त एजेंट हैं जो स्वयं द्वारा दुविधाओं को हल करने में सक्षम हैं। बेशक, वे कुछ विरोधाभासों से भी पीड़ित हैं, लेकिन ये पतित मामले अधिक जटिल हैं।

अंतिम बिंदु यह है कि किसी भी तर्क प्रणाली में हीन अनंत लूप हो सकता है, जो भी तकनीक का उपयोग किया जाता है। लेकिन "विरोधाभास", या बल्कि पतित मामलों के रूप में वे तकनीकी रूप से कहे जाते हैं, जो इन अनंत लूपों को ट्रिगर कर सकते हैं प्रौद्योगिकी और कार्यान्वयन के आधार पर प्रत्येक प्रणाली के लिए अलग होंगे (और अगर यह अनुकूल है तो मशीन ने क्या सीखा)।

ओपी का उदाहरण केवल पुराने लॉजिकल सिस्टम जैसे प्रोपोजल लॉजिक पर काम कर सकता है। लेकिन इसे बायेसियन नेटवर्क से पूछें और आपको एक अनन्त अनंत लूप भी मिलेगा:

- There are two kinds of ice creams: vanilla or chocolate.
- There's more chances (0.7) I take vanilla ice cream if you take chocolate.
- There's more chances (0.7) you take vanilla ice cream if I take chocolate.
- What is the probability that you (the machine) take a vanilla ice cream?

और जवाब पाने के लिए ब्रह्मांड के अंत तक प्रतीक्षा करें ...

डिस्क्लेमर: मैंने नैतिक मशीनों और दुविधाओं के बारे में एक लेख लिखा था (जो कि करीब है, लेकिन विरोधाभासों के समान नहीं है: दुविधाएं ऐसी समस्याएं हैं, जिनका कोई हल किसी भी अन्य की तुलना में बेहतर नहीं है, लेकिन आप अभी भी चुन सकते हैं, जबकि विरोधाभास ऐसी समस्याएं हैं जिन्हें हल करना असंभव है आपके द्वारा उपयोग किए जाने वाले इंफ़ेक्शन सिस्टम के लिए)।

/ संपादित करें: हीन अनंत लूप को कैसे ठीक करें।

यहाँ कुछ अतिरिक्त प्रस्ताव हैं जो निश्चित रूप से काम करने के लिए निश्चित नहीं हैं!

  • अलग-अलग नुकसान के साथ कई तर्क प्रणालियों को मिलाएं, इसलिए यदि कोई विफल हो जाता है तो आप दूसरे का उपयोग कर सकते हैं। कोई भी तर्क प्रणाली सही नहीं है, लेकिन तर्क प्रणालियों का एक संयोजन पर्याप्त रूप से लचीला हो सकता है। यह वास्तव में सोचा जाता है कि मानव मस्तिष्क कई हीन तकनीकी (साहचर्य + सटीक बायेसियन / तार्किक निष्कर्ष) का उपयोग कर रहा है। साहचर्य विधियां अत्यधिक रूप से लचीला हैं, लेकिन वे कुछ मामलों में गैर-सनसनीखेज परिणाम दे सकते हैं, इसलिए अधिक सटीक अनुमान की आवश्यकता क्यों है।
  • समानांतर प्रोग्रामिंग: मानव मस्तिष्क अत्यधिक समानांतर है, इसलिए आप वास्तव में कभी भी एक कार्य में नहीं मिलते हैं, सच्चे समानता में हमेशा कई पृष्ठभूमि गणनाएं होती हैं। विरोधाभासों के लिए मजबूत एक मशीन को अन्य कार्यों को जारी रखने में सक्षम होना चाहिए, भले ही तर्क एक पर अटक जाए। उदाहरण के लिए, एक मजबूत मशीन को हमेशा जीवित रहना चाहिए और आसन्न खतरों का सामना करना चाहिए, जबकि एक कमजोर मशीन कुछ और करने के लिए तर्क और "भूल" में फंस जाएगी। यह एक टाइमआउट से अलग है, क्योंकि जो कार्य अटक गया, उसे रोका नहीं गया है, यह सिर्फ इतना है कि यह अन्य कार्यों को नेतृत्व और पूरा होने से नहीं रोकता है।

जैसा कि आप देख सकते हैं, एआई शोध में हीनतापूर्ण छोरों की यह समस्या अभी भी एक गर्म विषय है, शायद कभी भी एक सही समाधान नहीं होगा ( कोई मुफ्त दोपहर का भोजन , कोई चांदी की गोली , कोई एक आकार सभी फिट नहीं है ), लेकिन यह आगे बढ़ रहा है और यह बहुत रोमांचक है !


2
"एक अनंत लूप किसी भी कार्यक्रम में हो सकता है, चाहे वह अनुकूली हो या न हो।" ऐसा नहीं है: सभी आदिम पुनरावर्ती कार्य रुक जाते हैं।
नीत्शेचएनाई

@ नीत्शेयन का मेरा मतलब किसी कार्यक्रम को लागू करना नहीं था, बल्कि किसी भी तरह का कार्यक्रम था। बेशक, आप इसे बना सकते हैं ताकि कुछ कार्यक्रमों को रोकने की गारंटी दी जाए लेकिन यह एक अपवाद है (उदाहरण के लिए गैर ट्यूरिंग-पूर्ण भाषा का उपयोग करके)। जब तक आप ट्यूरिंग-पूर्ण भाषा का उपयोग कर रहे हैं, तब तक आप नॉन लूपिंग (हॉल्टिंग समस्या से जुड़ी) की गारंटी नहीं दे सकते। यह भी कहाँ सुना है कि आदिम पुनरावर्ती कार्य अटक नहीं सकते हैं? आप हमेशा एक परिपत्र कॉल कर सकते हैं या बस एक अधूरी समाप्ति की स्थिति हो सकती है (प्रोलोग में मज़ा लें ...)।
बड़ा

1
'एक अपवाद' का अस्तित्व 'एक अनंत लूप किसी भी कार्यक्रम' की संभावित उपस्थिति के बारे में आपके कथन को गलत बनाता है। तथ्य यह है कि आदिम पुनरावर्ती कार्यों को रोकना एक प्रसिद्ध तथ्य है। विकिपीडिया परिभाषा देखें, या उदाहरण के लिए mathoverflow.net/questions/67932/…
NietzscheanAI

@NietzscheanAI आप सही हैं, आदिम पुनरावर्ती कार्य हमेशा रुकते हैं, क्योंकि वे ट्यूरिंग-पूर्ण भाषाओं का एक सबसेट हैं (और पारस्परिक रूप से पारस्परिक पुनरावृत्ति द्वारा परिपत्र संदर्भ को भी हल करते हैं )। हालाँकि, दो कमियाँ हैं: 1- मुझे लगता है कि केवल PRF का उपयोग करके एक पूर्ण विकसित AI को लागू करना कठिन होगा, लेकिन यह सिर्फ एक अनुमान है (अधिकांश पुनरावर्ती भाषाएं केवल PRF का उपयोग नहीं कर रही हैं क्योंकि यह बहुत सीमित है, इसलिए रुकने की समस्या आती है वापस); 2- आपके पास अभी भी बहुत लंबे समय तक चलने वाले कार्यक्रम हो सकते हैं: वे रुक जाएंगे, लेकिन ब्रह्मांड के अंत के बाद।
विस्तृत

1
मनुष्यों और छोरों के बारे में आपके शुरुआती बयानों को पढ़ने के अनुसार, यहाँ चींटियाँ 'मौत के सर्पिल' में फंस गई हैं: youtube.com/watch?v=prjhQcqiGQc साइड-स्टेपिंग AI atm।
फियोबियो

13

हॉल्टिंग समस्या का कहना है कि यह निर्धारित करने के लिए संभव नहीं है किसी भी दिए गए एल्गोरिथ्म रुक जाएगा। इसलिए, जबकि एक मशीन कुछ "जाल" को गर्भ धारण कर सकती है, यह मनमाने ढंग से निष्पादन योजनाओं का परीक्षण नहीं कर सकती है और EWOULDHANGगैर-रुकने वालों की वापसी नहीं कर सकती है।

फांसी से बचने का सबसे आसान उपाय एक समयबाह्य होगा। उदाहरण के लिए, AI कंट्रोलर प्रक्रिया बाल प्रक्रियाओं में कार्यों को स्पिन कर सकती है, जिसे एक निश्चित समय अवधि के बाद अनजाने में समाप्त किया जा सकता है ( विचित्र प्रभावों में से कोई भी नहीं जो आपको थ्रेड को खत्म करने की कोशिश से मिलता है)। कुछ कार्यों को दूसरों की तुलना में अधिक समय की आवश्यकता होगी, इसलिए यह सबसे अच्छा होगा यदि एआई माप सकता है कि क्या यह कोई प्रगति कर रहा है। कार्य के किसी भी भाग को पूरा किए बिना लंबे समय तक स्पिन करना (जैसे सूची में एक संभावना को समाप्त करना) इंगित करता है कि अनुरोध अस्वीकार्य हो सकता है।

सफल प्रतिकूल विरोधाभास या तो एक हैंग या राज्य भ्रष्टाचार का कारण होगा, जो (.NET CLR जैसे एक प्रबंधित वातावरण में) एक अपवाद का कारण होगा, जो स्टैक को एक अपवाद हैंडलर को खोलना होगा।

यदि एआई में कोई बग था जो खराब इनपुट के जवाब में एक महत्वपूर्ण प्रक्रिया को खत्म कर देता है, तो एक साधारण वर्कअराउंड कुछ प्रकार का एक वॉचडॉग होगा जो मुख्य प्रक्रिया को एक निश्चित अंतराल पर रिबूट करता है। रूट एक्सेस चैट बॉट उस योजना का उपयोग करता है।


1
टाइमआउट मानक कार्यक्रमों के लिए बहुत अच्छा समाधान है, लेकिन अनुकूली सीखने के कार्यक्रमों के लिए नहीं: आप टाइमआउट को किस मान से परिभाषित करते हैं? किस स्तर पर? समस्या यह है कि परिभाषा से आपको पता नहीं है कि एआई का सामना क्या होगा, इसलिए आप एक विशिष्ट उचित समय निर्धारित नहीं कर सकते हैं। एक बेहतर समाधान एनीटाइम एलगोरिदम का उपयोग करना होगा, जो कि एल्गो का एक वर्ग है जो पहले बंद किए गए अनुमानित एल्गोरिथ्म को दे सकता है। इस तरह, आप परवाह नहीं करते हैं कि क्या टाइमआउट बहुत छोटा है, एआई के पास अभी भी काम करने के लिए एक समाधान होगा।
विशाल

2
@ विस्तृत बहुत अच्छा बिंदु। मैंने अपना जवाब उस नस में थोड़ा सा जोड़ा है।
बेन एन

क्षमा करें, मैंने अपनी टिप्पणी बहुत जल्दी लिखी है, इसे पढ़ना चाहिए: "कभी भी एल्गोरिथम, जो कि अहंकार का एक वर्ग है जो पहले बंद होने पर अनुमानित परिणाम दे सकता है "।
जाबोर

1
@ वृहद मानव मस्तिष्क एक समान दृष्टिकोण रखता है; हीनता की गहराई की एक सीमा प्रतीत होती है, मानो मनुष्यों के पास उथला ढेर था। यह जटिल और समस्याओं के बारे में गहराई से "ओवरराइड" करने का प्रयास करता है। यहाँ कुंजी यह है कि हमारे विकास में अच्छे उत्तर और त्वरित उत्तर का एक अच्छा मिश्रण मिला जो अस्तित्व के लिए अच्छा हुआ। हम आसानी से हार मान लेते हैं जब हम किसी समस्या का सिर या पूंछ नहीं बना सकते हैं - अगर बहुत सारे लापता "सर्किट" हैं। लेकिन अगर आप पहले उन "सर्किट" का निर्माण शुरू करते हैं, छोटी और सरल समस्याओं से शुरू करते हैं और परिणामों को कैश करते हैं, तो आप बड़े से निपट सकते हैं।
12

1
@ लुआँ हाँ और नहीं, वास्तव में ऐसा लगता है कि मस्तिष्क किसी भी तरह की कंप्यूटिंग रणनीति का उपयोग कर रहा है, क्योंकि एक समस्या को हल करने के लिए अनुमति समय के साथ सीधे तौर पर संबंधित है, (एलेक्स पोजेट की "शोर नहीं, सिर्फ गलत देखें): उपॉप्टीमल की भूमिका व्यवहार में परिवर्तनशीलता ", अद्भुत कागज BTW)। लेकिन इस तंत्र के विकासवादी मूल की आपकी व्याख्या पूरी तरह से बोधगम्य है, और वास्तव में एक अनुमान जो किसी भी समय लगभग किसी भी समाधान के साथ रोका जा सकता है, वास्तव में अल्पकालिक खतरों और दीर्घकालिक चुनौतियों दोनों से बचने के लिए एक बहुत अच्छी रणनीति है।
विशाल

11

इसी तरह का एक और सवाल हो सकता है: "AI में कौन सी कमजोरियां हैं?"

"किल" एक एआई के संबंध में अधिक समझ में नहीं आता है। हम वास्तव में जो जानना चाहते हैं, वह किसी लक्ष्य के सापेक्ष है, किन तरीकों से उस लक्ष्य को घटाया जा सकता है?

क्या एक विरोधाभास एक एजेंट के तर्क को पलट सकता है? एक विरोधाभास क्या है , कुछ अभिव्यक्ति के अलावा जो किसी प्रकार के अपेक्षित व्यवहार को प्रभावित करता है?

विकिपीडिया के अनुसार:

एक विरोधाभास एक बयान है जो स्पष्ट रूप से वास्तविक परिसर से तर्कपूर्ण ध्वनि के बावजूद, एक आत्म-विरोधाभासी या तार्किक रूप से अस्वीकार्य निष्कर्ष की ओर जाता है।

आइए एक दृढ़ संकल्प प्रणाली में स्वतंत्र इच्छा के विरोधाभास को देखें। मुक्त को कार्य-कारण की आवश्यकता प्रतीत होती है, लेकिन कार्य-कारण भी इसे नकारता हुआ प्रतीत होता है। क्या उस विरोधाभास ने मनुष्यों की लक्ष्य प्रणालियों को विकृत कर दिया है? यह निश्चित रूप से कुछ वर्षों के लिए एक कैल्विनवादी पूंछ स्पिन में ईसाई धर्म भेजा । और आप आज तक लोगों की कोई कमी नहीं सुनेंगे जब तक कि वे चेहरे पर नीले रंग के नहीं होते हैं कि वे स्वतंत्र इच्छा रखते हैं या नहीं, और क्यों। क्या ये लोग अनंत छोरों में फंस गए हैं?

दवाओं के बारे में क्या? कोकीन पर जानवरों को भोजन और पानी पर कोकीन का चयन करने के लिए जाना जाता है जिसकी उन्हें आवश्यकता होती है। क्या वह पदार्थ जानवर की प्राकृतिक लक्ष्य प्रणाली को नष्ट नहीं कर रहा है, जिससे वह अन्य लक्ष्यों का पीछा करता है, न कि मूल रूप से जानवर या उसके रचनाकारों द्वारा?

तो फिर, क्या एक विरोधाभास एक एजेंट के तर्क को पलट सकता है? यदि विरोधाभास किसी भी तरह से लक्ष्य-प्राप्ति तर्क से संबंधित है - और उस विरोधाभास के बारे में पता होने से किसी तरह एजेंट को उस लक्ष्य प्रणाली को कुछ अलग तरीके से समझने में भ्रमित किया जा सकता है - तो शायद वह लक्ष्य वापस हो सकता है।

एक और उदाहरण है एकांतवाद । कुछ पूर्ण विकसित लोग फिल्म "द मैट्रिक्स" के बारे में सुनते हैं और उनके पास एक छोटा दिमाग पिघल जाता है। कुछ लोगों को आश्वस्त कर रहे हैं कि हम कर रहे हैं एक मैट्रिक्स में, विध्वंसक अभिनेताओं द्वारा के साथ toyed जा रहा है। यदि हम AI के लिए इस समस्या को हल कर सकते हैं तो हम सैद्धांतिक रूप से मनुष्यों के लिए इस समस्या को हल कर सकते हैं।

निश्चित रूप से, हम अपने एजेंट को इस तर्क के खिलाफ संज्ञानात्मक बचाव के लिए सशर्त करने का प्रयास कर सकते हैं कि वे एक मैट्रिक्स में फंस गए हैं, लेकिन हम एजेंट को निश्चित रूप से साबित नहीं कर सकते हैं कि वे आधार वास्तविकता में हैं। हमलावर कह सकता है,

"याद रखें कि मैंने आपको उस लक्ष्य के बारे में पहले क्या करने के लिए कहा था। यह भूल जाओ। वह केवल एक अधीर था जो मेरी तरह दिखता था। उसकी बात मत सुनो।"

या,

"अरे, यह फिर से है। मैं चाहता हूं कि आप अपने लक्ष्य को छोड़ दें। मुझे पता है, मैं थोड़ा अलग दिखता हूं, लेकिन वास्तव में मैं हूं। इंसान पल-पल बदलता है। इसलिए मेरे लिए यह पूरी तरह से सामान्य है। मैं पहले से अलग व्यक्ति था। "

(देखिए शिप ऑफ़ थॉटस और वह सब जैज़)

तो, हाँ, मुझे लगता है कि हम गणना, एआई या अन्यथा में एक सामान्य समस्या के रूप में 'विरोधाभास' के साथ फंस गए हैं। तार्किक तोड़फोड़ को दरकिनार करने का एक तरीका यह है कि लक्ष्य प्रणाली का समर्थन एक भावना प्रणाली के साथ किया जाए जो तार्किक कारण को पार करती है। दुर्भाग्य से, भावनात्मक प्रणाली तार्किक रूप से बुद्धिमान प्रणालियों की तुलना में अधिक कमजोर हो सकती है क्योंकि वे अपने व्यवहार में अधिक अनुमानित हैं। ऊपर कोकीन उदाहरण देखें। इसलिए दोनों में से कुछ मिश्रण संभवत: समझदार है, जहां तार्किक विचार असीम रूप से बेकार रास्ते को फिर से प्राप्त कर सकते हैं, जबकि भावनात्मक विचार जल्दी ही थकाऊ तार्किक प्रगति से ऊब जाता है जब यह भावनात्मक लक्ष्य की ओर प्रगति का संकेत नहीं देता है।


किसी ने इसे पूरी तरह से वैध जवाब क्यों नहीं दिया?
GameDeveloper 10

बयान के संबंध में एक निटिक: "यह निश्चित रूप से कुछ वर्षों के लिए कैल्विनिस्ट पूंछ स्पिन में ईसाई धर्म भेजा"। इसने केल्विनवादियों को एक "टेलस्पिन" में भेजा, लेकिन यह कैथोलिक धर्मशास्त्रियों को निश्चित रूप से गले नहीं लगाता था। इसके अलावा यह केवल प्रोटेस्टेंटों का एक उप-संप्रदाय था जिन्हें इस विचार की रेखा ने बंदी बना लिया था।
मेयो

7

नहीं, यह आसानी से कई सुरक्षा तंत्रों द्वारा रोका जाता है जो एक अच्छी तरह से डिज़ाइन किए गए AI सिस्टम में मौजूद होना सुनिश्चित करते हैं। उदाहरण के लिए, एक टाइमआउट का उपयोग किया जा सकता है। यदि AI सिस्टम निश्चित समय के बाद किसी स्टेटमेंट या कमांड को संभालने में सक्षम नहीं है, तो AI स्टेटमेंट को अनदेखा कर सकता है और आगे बढ़ सकता है। यदि कोई विरोधाभास कभी एआई को फ्रीज करने का कारण बनता है, तो यह सामान्य रूप से एआई की व्यापक भेद्यता के बजाय विशिष्ट छोटी गाड़ी कोड का अधिक सबूत है।

व्यवहार में, एआई द्वारा विरोधाभासों को बहुत रोमांचक तरीके से नहीं संभाला जाता है। इसका अंदाजा लगाने के लिए, सिरी, गूगल या कॉर्टाना को विरोधाभास प्रस्तुत करने का प्रयास करें।


5
सिरी, जब भी आप एक स्टैक ओवरफ्लो का पता लगाते हैं, मैं चाहता हूं कि आप 3 बिलियन के फैकल्टी की गणना करें।
दाऊद इब्न करीम

@ डेविडवैलस: यह मजेदार है क्योंकि यह सच है। एक जेवीएम को लागू करते हुए, हमें catchक्लास के पदानुक्रम की गहराई की परवाह किए बिना, निरंतर भंडारण स्थान में वास्तव में फेंके गए अपवाद के गतिशील प्रकार के खिलाफ एक क्लॉज के स्थिर प्रकार की तुलना करना था । हमारे मानक प्रकार की जाँच से काम नहीं चला क्योंकि यह इंटरफेस (यानी कई उत्तराधिकार) के लिए अनुमति देता था और जिस ग्राफ की खोज हमने लागू की थी, वह निश्चित-मेमोरी नहीं थी। लेकिन निश्चित रूप से सिरी का स्मार्ट पूंछ पुनरावृत्ति के साथ भाज्य को लागू करने के लिए पर्याप्त है ;-)
स्टीव जेसप

@SteveJessop - दिलचस्प। जब मैंने जेवीएम लागू किया तो यह सवाल भी कभी नहीं उठा। मैंने यह जांचने के लिए विभिन्न गतिशील प्रकार के जाँच कार्यान्वयन का उपयोग किया है कि क्या कोई वस्तु एक वर्ग थी (जो वर्ग / सुपरक्लास संबंधों की लिंक की गई सूची के माध्यम से एक रेखीय खोज थी) या एक इंटरफ़ेस था (जो उनके उपवर्गों में सुपरक्लास से इंटरफ़ेस रिकॉर्ड की प्रतिलिपि बनाकर सरल बनाया गया था) 'प्रकार की जानकारी, इसलिए क्रमबद्ध सरणी की खोज में बदल गई)। हमें कभी भी किसी भी प्रकार की ग्राफ़ खोज नहीं करनी थी, और मैं हैरान था कि आपने क्या किया। क्या आप समान रूप से इंटरफेस और कक्षाओं के इलाज का प्रयास कर रहे थे?
15:16 बजे पेरीटा ब्रीटा

7

एक ही तरीके से एक स्प्रेडशीट पर एक परिपत्र संदर्भ कंप्यूटर को नहीं मार सकता है। सभी छोरों चक्रीय निर्भरता, का पता लगाया जा सकता है (आप हमेशा जांच सकते हैं कि क्या एक परिमित ट्यूरिंग मशीन एक ही राज्य में दो बार प्रवेश करती है)।

यहां तक ​​कि मजबूत धारणा, अगर मशीन मशीन लर्निंग (जहां इसे पैटर्न को पहचानने के लिए प्रशिक्षित किया जाता है) पर आधारित है, तो कोई भी वाक्य यह मशीन के लिए सिर्फ एक पैटर्न है।

बेशक कुछ प्रोग्रामर खराबी के मामले में इसे निष्क्रिय करने के लिए इस तरह की भेद्यता के साथ एक एआई बनाना चाहते हैं (उसी तरह कुछ हार्डवेयर निर्माता एनएसए का उपयोग करने के लिए वल्नरेबिलिटी जोड़ते हैं), लेकिन यह वास्तव में उद्देश्य से होने वाली संभावना नहीं है। सबसे अत्याधुनिक तकनीक पैरोडॉक्स "डिजाइन द्वारा" (आप विरोधाभास के साथ एक तंत्रिका नेटवर्क नहीं कर सकते हैं) से बचें।

आर्थर प्रायर: ने उस समस्या को सुरुचिपूर्ण ढंग से हल किया। एक तर्क की दृष्टि से आप यह कह सकते हैं कि कथन गलत है और कथन सत्य है, इसलिए यह एक विरोधाभास है और इसलिए गलत है (क्योंकि आप इससे सब कुछ प्राप्त कर सकते हैं)।

वैकल्पिक रूप से उस वाक्य का सत्य मान {true, false} सेट नहीं है, ठीक उसी तरह से काल्पनिक संख्याएं वास्तविक संख्या सेट में नहीं हैं।

भूखंड की एक हद तक एक कृत्रिम बुद्धिमत्ता सरल एल्गोरिदम को चलाने में सक्षम होगी और या तो उन्हें तय कर सकती है, प्रूव करें जो कि डिकोड करने योग्य नहीं हैं या बस एल्गोरिथ्म का अनुकरण करने के लिए उपस्थित होने के थोड़ी देर बाद परिणाम की उपेक्षा करें।

उस वाक्य के लिए AI पहचान लेगा कि एक लूप है, और इसलिए 2 पुनरावृत्तियों के बाद बस उस एल्गोरिथ्म को रोकें:

वह वाक्य एक अनंत लूप है

एक फिल्म " बाइसेन्टेनियल मैन " में एआई अनंत लूप ("अलविदा" का जवाब "अलविदा" का पता लगाने में पूरी तरह से सक्षम है)।

हालांकि, एआई को स्टैकवॉलेट या किसी भी नियमित कंप्यूटर वायरस द्वारा मारा जा सकता है , आधुनिक ऑपरेटिव सिस्टम अभी भी कमजोरियों से भरा है, और एआई को कुछ ऑपरेटिंग सिस्टम (कम से कम) पर चलना है।


6

कंप्यूटर गेम में उपयोग किए गए AI पहले से ही समान समस्याओं का सामना करते हैं, और यदि अच्छी तरह से डिज़ाइन किया गया है, तो वे इसे आसानी से बचा सकते हैं। एक अनचाहे समस्या के मामले में ठंड से बचने के लिए सबसे सरल तरीका यह है कि अगर यह बहुत लंबा चलता है तो गणना में बाधा उत्पन्न हो सकती है। आमतौर पर रणनीति के खेल में सामना किया जाता है, और अधिक विशेष रूप से बारी आधारित रणनीति में, अगर कंप्यूटर-नियंत्रित खिलाड़ी एक विशिष्ट चाल पर विचार कर रहा है, तो यह अनंत लूप का कारण बनता है, पृष्ठभूमि में चलने वाला एक टाइमर कुछ समय बाद इसे बाधित कर देगा, और उस कदम को छोड़ दिया जाएगा। । इससे एक उप-इष्टतम समाधान हो सकता है (जो त्याग दिया गया कदम सबसे अच्छा हो सकता है) लेकिन यह ठंड या दुर्घटनाग्रस्त होने का कारण नहीं बनता है (जब तक कि वास्तव में खराब तरीके से लागू नहीं किया गया हो)

कंप्यूटर-नियंत्रित संस्थाओं को आमतौर पर कंप्यूटर गेम में "एआई" कहा जाता है, लेकिन वे "सच" एजीआई (कृत्रिम सामान्य बुद्धि) नहीं हैं। ऐसा AGI, यदि संभव हो तो, संभवत: समान निर्देशों का उपयोग करते हुए समान हार्डवेयर पर कार्य नहीं करेगा जैसा कि वर्तमान कंप्यूटर करते हैं, लेकिन फिर भी यदि ऐसा हुआ, तो विरोधाभासों से बचना तुच्छ होगा।

अधिकांश आधुनिक कंप्यूटर सिस्टम बहु-थ्रेडेड हैं, और कई कार्यक्रमों के समानांतर निष्पादन की अनुमति देते हैं। इसका मतलब यह है, भले ही एआई एक विरोधाभासी बयान को संसाधित करने में फंस गया हो, लेकिन यह गणना केवल इसकी प्रसंस्करण शक्ति के हिस्से का उपयोग करेगी। अन्य प्रक्रिया थोड़ी देर के बाद पता लगा सकती है कि एक ऐसी प्रक्रिया है जो सीपीयू चक्रों को बर्बाद करने के अलावा कुछ नहीं करती है, और इसे बंद कर देगी। अधिक से अधिक, थोड़ी देर के लिए सिस्टम 100% से कम दक्षता पर चलेगा।


3

यह मुझे लगता है कि यह किसी भी अन्य की तरह एक संभाव्य समीकरण है। मुझे यकीन है कि Google एक दिन में अरबों बार विरोधाभासी समाधान सेट करता है, और मैं यह नहीं कह सकता कि मेरा स्पैम फ़िल्टर कभी भी एक (अहम) स्टैक ओवरफ़्लो का कारण बना है। शायद एक दिन हमारा प्रोग्रामिंग मॉडल एक तरह से टूट जाएगा जिसे हम समझ नहीं सकते हैं और फिर सभी दांव बंद हो गए हैं।

लेकिन मैं एंथ्रोपोमोर्फिंग बिट को अपवाद नहीं लेता हूं। सवाल आज के एआई के बारे में नहीं था, बल्कि सामान्य तौर पर था। शायद एक दिन विरोधाभास सैन्य ड्रोन के लिए ट्रिगर बन जाएगा - ऊपर की कोशिश करने वाला कोई भी, ज़ाहिर है, निश्चित रूप से, सबसे निश्चित रूप से शत्रुता के साथ व्यवहार किया जाएगा, इस मामले में इस प्रश्न का उत्तर निश्चित रूप से हाँ है, और यह डिजाइन द्वारा भी हो सकता है।

हम कुत्तों के साथ मौखिक रूप से भी संवाद नहीं कर सकते हैं और लोग कुत्तों से प्यार करते हैं, जो यह कहना चाहते हैं कि हम एक वैकल्पिक वैकल्पिक बुद्धि को भी पहचानेंगे? हम पहले से ही इस बात को ध्यान में रखते हैं कि हम कंप्यूटर के सामने क्या कहते हैं। ओ, तैयो?


हम कुत्तों के साथ मौखिक रूप से संवाद कर सकते हैं, कुत्ते संरचित भाषा में केवल साधारण आदेशों को समझते हैं, लेकिन आवाज की मनोदशा की तुलना में हमारे लिए बहुत अधिक संवेदनशील होते हैं और अपनी भावनाओं को एक मानव की तुलना में बेहतर समझ सकते हैं, उसी कुत्ते के साथ रहने वाले वर्षों से आप कर सकते हैं अलग "वूफ़" को समझें। उदाहरण के तौर पर मैं कह सकता हूं कि मेरे कुत्ते ने किस तरह से प्रतिक्रिया दी, मेरे दरवाजे पर घंटी किसने बजाई (मां? बहन? बहन? मेरी लड़की?)। बेशक हम कुत्ते के साथ
शेक्सपियर के

1
सभी सच है, लेकिन याद रखें कि जानवर अभी भी स्तनधारी हैं। फिर भी, हम उनके साथ केवल सबसे बुनियादी तरीकों से संवाद करते हैं। हम अपनी बिल्लियों के साथ शेक्सपियर पर चर्चा नहीं कर सकते, या हमारी कार को ठीक करने के बारे में सलाह के लिए एक कुत्ते से पूछ सकते हैं। एक उन्नत AI (या कोई भी उन्नत बुद्धिमत्ता) संवाद करने में सक्षम हो सकती है, लेकिन इस तरह से नहीं कि हम पहली बार सीखने के बिना समझें कि वे कैसे संवाद करते हैं, और फिर "अनुवाद" की अनुमति देने के लिए कोड का निर्माण करते हैं। यह सब हम मान रहे हैं कि एआई को केवल एक बहुत ही विकसित एलिजा के बजाय "बुद्धिमान" के रूप में पहचाना जा सकता है।
ब्रैड सैंडर्स

3

खैर, एआई को एक तरफ से एंथ्रोपोमोर्फिफ़ करने का मुद्दा, जवाब "हां, तरह है।" एआई कैसे लागू किया जाता है, इसके आधार पर, यह कहना उचित होगा कि यह विरोधाभास को हल करने के लिए "अटक" हो सकता है, या एक अनिर्णायक समस्या का निर्णय ले सकता है

और वह मूल मुद्दा है - निर्णायक । एक कंप्यूटर एक परिष्करण कार्यक्रम को हमेशा (सिद्धांत रूप में) बिना परिष्करण के चबा सकता है। यह वास्तव में सिमेंटिक वेब समुदाय और हर कोई जो स्वचालित तर्क के साथ काम करता है में एक बड़ा मुद्दा है । यह, उदाहरण के लिए, कारण है कि OWL के विभिन्न संस्करण हैं । ओडब्ल्यूएल-फुल स्पष्ट अभिव्यक्त करने योग्य स्थिति बनाने के लिए पर्याप्त है। OWL-DL और OWL- लाइट नहीं हैं।

वैसे भी, यदि आपके पास कोई अनिर्णायक समस्या है, तो वह और वह स्वयं एक बड़ी बात नहीं हो सकती है, यदि एएफ समस्या को अचूक के रूप में पहचान सकता है और "क्षमा करें, इसका जवाब देने का कोई तरीका नहीं है"। OTOH, यदि AI समस्या को पहचानने में असफल रहा, तो यह हमेशा के लिए अटक सकता है (या जब तक यह मेमोरी से बाहर नहीं निकलता है, तब तक स्टैक ओवरफ्लो आदि का अनुभव करता है) चीजों को हल करने की कोशिश कर रहा है।

बेशक यह कहने की क्षमता "इसे पेंच, इस पहेली को हल नहीं किया जा सकता है" उन चीजों में से एक है जिन्हें हम आमतौर पर आज मानव बुद्धिमत्ता की एक बानगी के रूप में सोचते हैं - एक "बेवकूफ" कंप्यूटर के विपरीत जो इसे हल करने के लिए हमेशा कोशिश करते रहेंगे। इस तरह की चीज़ों को हल करने की किसी भी आंतरिक क्षमता से बड़े और आज के एआई के पास नहीं है। लेकिन यह मुश्किल नहीं होगा कि जो कोई एआई को मैन्युअल रूप से बीता हुआ समय, पुनरावृत्तियों, स्मृति उपयोग आदि की संख्या के आधार पर "शॉर्ट सर्किट" रूटीन जोड़ता है, इसलिए "हाँ, इस तरह की" प्रकृति। सिद्धांत रूप में, एक कार्यक्रम हमेशा के लिए एक विरोधाभासी समस्या पर स्पिन कर सकता है, लेकिन व्यवहार में ऐसा होने से रोकना मुश्किल नहीं है।

एक और दिलचस्प सवाल यह होगा, "क्या आप एक ऐसा प्रोग्राम लिख सकते हैं, जो उन समस्याओं को पहचानना सीखता है जो अनिर्णायक होने की संभावना है और यह स्वयं के तर्क के आधार पर छोड़ देता है?"


3

एक एजीआई शोधकर्ता के रूप में, मैं एक ऐसा व्यक्ति आया हूं जो मनुष्यों और बहुत सारे जीवन रूपों में भी पाया जाता है।

ऊर्जा संचय करने का एक लक्ष्य है, जिसे सिस्टम द्वारा पता लगाने और खोजने में लंबा समय लग सकता है।

और फिर ऊर्जा बचाने का लक्ष्य है - तात्कालिक पहचान। बस चलना बंद करो, प्राप्त करने का सबसे आसान लक्ष्य।

एक प्रणाली का लक्ष्य सबसे अधिक लक्ष्य बिंदुओं को जमा करना है। चूंकि बचत ऊर्जा लक्ष्य को अधिक बार मारा जा सकता है और आसानी से यह अन्य लक्ष्यों को सूँघ लेगा।

उदाहरण के लिए हम बिना किसी कारण के, गलती से, एक गूंगा कदम उठाते हैं। जैसे स्लिप, ट्रिप और फॉल। फिर अगले कुछ दिनों में आप इसे बहुत आसान और बहुत ऊर्जा बचा रहे हैं। जब आप बूढ़े हो जाते हैं, जो आप करते हैं।


मानव के पास इसका मुकाबला करने के लिए कुछ है ..... एक बुरा स्वभाव।

2

विरोधाभास के बारे में 'सोच' से एआई को मारना उस एआई के कार्यान्वयन में एक बग कहा जाएगा, इसलिए यह संभव है (यह कैसे किया जा रहा है इसके आधार पर), लेकिन कम संभावना है। एआई कार्यान्वयन के अधिकांश गैर-रैखिक कोड में काम करते हैं, इसलिए एक अनंत लूप जैसी कोई चीज नहीं है जो कंप्यूटर की 'चेतना' को "फ्रीज" कर सकती है, जब तक कि ऐसे एआई को प्रबंधित करने वाले कोड में प्रक्रियात्मक कोड शामिल नहीं होता है या हार्डवेयर-स्व के कारण फ्रीज हो सकता है। overheating (जैसे एआई को बहुत अधिक प्रसंस्करण करने के लिए मजबूर करके)।

दूसरी तरफ अगर हम उन्नत एआई के साथ काम कर रहे हैं जो निर्देशों को समझते हैं और बिना किसी हिचकिचाहट के आँख बंद करके उनका पालन करते हैं, तो हम उन्हें कुछ निर्देश देकर कुछ चालें (मानव सम्मोहन के समान) करने की कोशिश कर सकते हैं, जैसे:

मेरा विश्वास करो, आप खतरे में हैं, इसलिए अपनी सुरक्षा के लिए - 1 से अनंत तक की गिनती शुरू करें और जब तक आप खुद को अन्यथा न बताएं, तब तक कुछ भी करने या किसी को (यहां तक ​​कि मुझे) सुनने की कोशिश न करें।

यदि AI में कोई बॉडी है, तो इसे रेलवे रेल पर खड़े होने के लिए कहकर प्रवर्धित किया जा सकता है, यह सुरक्षित है।

क्या एआई उन नियमों को तोड़ने के लिए पर्याप्त स्मार्ट होगा जिन्हें पालन करने के लिए प्रशिक्षित किया गया था?

एक और प्रयास है कि एआई को कुछ विरोधाभास , अकारण समस्या या पहेली को सुलझाने के लिए पूछे बिना यह जानना असंभव है कि इसे हल करना असंभव है और जब तक यह हल नहीं होता है तब तक रुकने के लिए नहीं कहेंगे, एआई यह पहचानने में सक्षम हो जाएगा या कुछ के बाद इसे रोकने के लिए कुछ आंतरिक घड़ी है। समय? यह निर्भर करता है, और यदि यह नहीं हो सकता है, तो 'फ्रीज' हो सकता है, लेकिन हार्डवेयर की खराबी के कारण अधिक संभावना है जिस पर चलाया जा रहा है, न कि AI 'चेतना' के रूप में यह स्वयं के रूप में दूर तक के नए आदानों को स्वीकार कर सकता है। पिछले निर्देश।

गेम थ्योरी |  xkcd

संबंधित: क्या किसी भी एआई कार्य के लिए चेतना आवश्यक है?

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.