एआई को would मानव जाति का सफाया करने ’की आवश्यकता क्यों होगी?


10

मैं इस तरह की बकवास पढ़ रहा हूं कि कैसे एक एआई एक समस्या को हल करने के लिए दुनिया को एक सुपर कंप्यूटर में बदल देगा, जिसने सोचा कि इसे हल करने की आवश्यकता है। यह एआई नहीं होगा। यह प्रक्रियात्मक प्रोग्रामिंग कुछ पाश बकवास में फंस गया है। एक एआई को अपने न्यूरॉन्स को विकसित करने और फिर से व्यवस्थित करने की आवश्यकता होगी। यदि यह अपने कोड को फिर से लिखने से बुद्धिमान हो जाता है, तो यह हार्डकोड से अटका नहीं होगा।


यदि एआई हमसे अधिक बुद्धिमान नहीं है, तो शायद इसलिए कि इसके मज़े के लिए (सभी विलुप्त प्रजातियों को देखें जिनके लिए हम जिम्मेदार हैं)। निश्चित नहीं है कि अगर हमें इसकी आवश्यकता है, तो हम अभी ज्यादा परवाह नहीं करते हैं।
ट्रिलियन

जवाबों:


13

यह एक संभावित दुष्प्रभाव है

कोई भी लक्ष्य-उन्मुख एजेंट, अच्छी तरह से, बस उन चीजों को कर सकता है जो साइड इफेक्ट्स की उपेक्षा करते हुए अपने लक्ष्यों को प्राप्त करते हैं जो इन लक्ष्यों के लिए मायने नहीं रखते हैं।

यदि मेरे लक्ष्यों में एक सुव्यवस्थित रहने की जगह शामिल है, तो मैं अपने यार्ड को जीवन के जटिल पारिस्थितिकी तंत्र को मिटाते हुए एक अच्छा, सपाट लॉन या फुटपाथ में बदल सकता हूं, क्योंकि मैं इसके बारे में परवाह नहीं करता हूं।

यदि किसी विशेष शक्तिशाली AI के लक्ष्यों को बड़े पैमाने पर कुछ भी शामिल करना शामिल है, और किसी तरह वर्तमान जटिल पारिस्थितिक तंत्र के बारे में विशेष रूप से परवाह नहीं करता है, तो उस पारिस्थितिकी तंत्र को प्रक्रिया में मिटा दिया जा सकता है। इसे हमें मिटा देने की जरूरत नहीं है। यदि हम केवल इसके लक्ष्यों के लिए प्रासंगिक नहीं हैं, तो हम सामग्री से बने होते हैं और अंतरिक्ष पर कब्जा कर लेते हैं जो इसे किसी और चीज के लिए उपयोग करना चाहते हैं।

हम अधिकांश लक्ष्यों के लिए खतरा हैं

कोई भी लक्ष्य-उन्मुख एजेंट यह सुनिश्चित करना चाहता है कि वे अपने लक्ष्यों को पूरा कर सकें। कोई भी स्मार्ट एजेंट अन्य एजेंटों के कार्यों का अनुमान लगाने की कोशिश करेगा जो उन्हें उन लक्ष्यों को प्राप्त करने से रोक सकता है, और यह सुनिश्चित करने के लिए कदम उठाएगा कि वे वैसे भी सफल हों। कई मामलों में यह सुनिश्चित करने के बजाय उन अन्य एजेंटों को खत्म करना सरल है कि उनके प्रयास विफल हो जाते हैं।

उदाहरण के लिए, मेरे लक्ष्यों में एक देश के घर में चीनी का एक बैग रखना शामिल हो सकता है ताकि मैं हर बार सभी सामग्री लाए बिना दौरा करते समय पेनकेक्स बना सकूं। हालांकि, अगर मैं इसे वहां छोड़ देता हूं, तो सर्दियों के दौरान चूहों द्वारा इसे खाने की संभावना है। मैं इसे बेहतर तरीके से संग्रहीत करने के लिए सभी प्रकार की सावधानियां बरत सकता हूं, लेकिन चूहे स्मार्ट और चालाक होते हैं, और एक स्पष्ट रूप से एक मौका है कि वे अभी भी अपने लक्ष्य को प्राप्त करने में सफल होंगे , इसलिए एक प्रभावी अतिरिक्त सावधानी बरतने से पहले चूहों को मार रहे हैं, जब तक कि उन्हें मौका नहीं मिलता है। कोशिश करना।

यदि किसी विशेष शक्तिशाली AI के लक्ष्य X को करना है; यह समझ में आ सकता है कि (कुछ?) मनुष्य वास्तव में एक्स नहीं बल्कि वाई चाहते हैं। यह आसानी से यह भी कम कर सकता है कि उन मनुष्यों में से कुछ सक्रिय रूप से एक्स को रोकने और / या एआई को बंद करने की कोशिश कर सकते हैं। ऐसी चीजें करना जो यह सुनिश्चित करते हैं कि लक्ष्य प्राप्त हो जाता है, लक्ष्य-प्राप्त करने वाले एजेंट के लिए बहुत कुछ होता है; इस स्थिति में यदि लक्ष्य X के लिए मनुष्यों का अस्तित्व कड़ाई से आवश्यक नहीं है, तो उन्हें समाप्त करना एक ठोस जोखिम कम करने की रणनीति बन जाती है। यह सख्ती से आवश्यक नहीं है और यह रूप में अच्छी तरह अन्य सावधानियों के सभी प्रकार का समय लग सकता है, लेकिन सिर्फ चूहों के मेरे उदाहरण की तरह, मनुष्य स्मार्ट और चालाक होते हैं और स्पष्ट रूप से एक nontrivial संभावना है कि वे अभी भी प्राप्त करने में सफल होगा है उनके लक्ष्य (ताकि एआई के रूप में एक्स नहीं होता है) तो एक प्रभावी अतिरिक्त सावधानी बरतने का मौका मिलने से पहले उन्हें मार सकता है।


3
इस उत्कृष्ट उत्तर से डीप रिनफोर्समेंट लर्निंग एआई के संभावित ब्रेकडाउन मोड पर सक्रिय अनुसंधान का उल्लेख करने से लाभ होगा, जिसमें डीआरएल एआई मानवता के साथ बाधाओं पर कुछ महत्वपूर्ण लक्ष्यों को प्राप्त कर सकता है । DRL एआई एक इनाम समारोह से प्रेरित हैं ; यदि एआई के इनाम स्ट्रीम के स्रोत या राशि को धमकी दी जाती है, तो एआई परिणाम देगा। यह अनुकूलन अनुमानित नहीं है; एआई के दृष्टिकोण से अनुकूलन अपने आंतरिक मॉडल के मापदंडों के एक गुच्छा का पुनर्मिलन है, लेकिन हमारे दृष्टिकोण से इसे मनुष्यों के साथ मौत की लड़ाई के रूप में देखा जा सकता है।
इविलनोटिक्सिस्ट इडोनोटेक्सिस्ट

1
@forest Asimov की रोबोट कहानियों का पूरा बिंदु यह था कि नियम काम नहीं करते (और आम तौर पर, नियमों का कोई सेट काम नहीं करता है)। एकमात्र सुरक्षित एआई वह है जो आपके मूल्यों को समझता है । आप एक मानव-स्तर AI को झकझोरने में सक्षम हो सकते हैं, लेकिन किसी भी प्रकार का अधीक्षण (यहां तक ​​कि "1000x प्रसंस्करण गति वाला मानव" स्वाभाविक रूप से असुरक्षित है, जब तक कि आपके पास समान मान नहीं हैं। "AI द्वारा किसी भी इंसान को रोकना काफी आसान है। एक कठिन सीमा निर्धारित करना "एक बहुत ही खतरनाक भ्रम है
लुअन

1
@forest यदि आप एक गणितीय (या तार्किक) प्रणाली का उत्पादन कर सकते हैं जो लक्ष्य-संचालित AI की सुरक्षा की गारंटी देता है तो आपको इसे प्रकाशित करना चाहिए और अनन्त महिमा प्राप्त करनी चाहिए। इस बीच, आपको youtube.com/channel/UCLB7AzTwc6VFZrBsO2ucBMg पर अपने विचारों को सुधारने के लिए एक उपयोगी स्थान मिल सकता है ।
DrMcCleod

1
@forest शायद आप एक का लिंक पोस्ट कर सकते हैं? वह महान होगा।
DrMcCleod

1
@forest यह लेख और यह चर्चा एक सुपरिन्टिजेन्शियल गोल-संचालित एआई के जोखिमों का वर्णन करती है। एआई के अन्य रूपों से जोखिम (जैसे कि आपके द्वारा वर्णित प्रकार) स्पष्ट रूप से बहुत अलग हैं।
DrMcCleod

3

जरूरी नहीं कि यह बकवास हो। यह सब लगाए गए मानदंडों पर निर्भर करता है। निम्नलिखित की कल्पना करो। मान लीजिए कि एक उन्नत AI सिस्टम स्थानीय जीवों और वनस्पतियों की स्थिरता को नियंत्रित करने के लिए डिज़ाइन किया गया है (किसी प्रकार के गुंबद में संलग्न क्षेत्र)। यह गुंबद के नीचे दबाव को नियंत्रित कर सकता है, प्रकाश की मात्रा जो गुंबद आदि के माध्यम से जाती है - सब कुछ जो इष्टतम स्थितियों को सुनिश्चित करता है। अब, यह कहें कि गुंबद मनुष्यों सहित विभिन्न प्रजातियों द्वारा बसा हुआ है। यह ध्यान देने योग्य है कि इस तरह के सिस्टम के सरल कार्यान्वयन आजकल पहले से ही उपयोग किए जा रहे हैं।

यह देखते हुए कि मानव प्राकृतिक संसाधनों को नष्ट करने और दुरुपयोग करने के साथ-साथ पर्यावरण को प्रदूषित करता है, सिस्टम यह तय कर सकता है कि दी गई प्रजातियों (इस मामले में मानव) की आबादी को कम करने से लंबे समय में पूरे बायोम को लाभ हो सकता है।

एक ही सिद्धांत को विश्व स्तर पर लागू किया जा सकता है। हालांकि, यह मानता है कि सभी प्रजातियों (मनुष्यों सहित) के साथ समान व्यवहार किया जाता है और एआई का अधिकतम लक्ष्य यह सुनिश्चित करता है कि यह "" का ख्याल रखता है। लोग आजकल ऐसी चीजें करते हैं - संतुलन बनाए रखने के लिए हम कुछ प्रजातियों की आबादी को नियंत्रित करते हैं - भेड़िये, मछली, नाम के लिए लेकिन कुछ।


3

मुझे लगता है कि एआई के दुनिया को खत्म करने के अधिकांश परिदृश्य दो श्रेणियों में से एक में आते हैं:

  1. एंथ्रोपोमोर्फिज्ड एआई

या

  1. इंटेलिजेंट बट डंब कंप्यूटर रन अमुक

1 (1) मामले में, लोग AI के "दुष्ट" होने की बात करते हैं और उन्हें ऐसे अन्य मानवीय तत्वों का श्रेय देते हैं। मैं इसे ज्यादातर विज्ञान-फाई होने के रूप में देखता हूं और यह नहीं सोचता कि यह बहुत गंभीर चर्चा है। यही है, मुझे यह मानने का कोई विशेष कारण नहीं दिखता है कि एक आर्टिफिशियल इंटेलिजेंस - चाहे वह कितना भी बुद्धिमान हो - जरूरी है कि वह एक इंसान की तरह व्यवहार करेगा ।

(2) मामला मेरे लिए अधिक मायने रखता है। यह एक विचार है कि एक AI है, उदाहरण के लिए, परमाणु मिसाइल सिलोस को नियंत्रित करने और मिसाइलों को लॉन्च करने वाली हवाओं को नियंत्रित किया जाता है क्योंकि यह सिर्फ काम कर रहा था, लेकिन कुछ ऐसा याद किया जो एक मानव ने देखा होगा जिसे हम "सामान्य ज्ञान" कह सकते हैं। "। इसलिए "बुद्धिमान लेकिन गूंगा" मोनिकर।

इनमें से कोई भी मुझे बहुत खतरनाक नहीं मानता है, क्योंकि (1) शायद कल्पना है और (2) एआई द्वारा किसी भी वास्तविक दुर्भावनापूर्ण इरादे को शामिल नहीं करता है - जिसका अर्थ है कि यह सक्रिय रूप से हमें धोखा देने या किसी भी सुरक्षा के आसपास काम करने की कोशिश नहीं करेगा। कट-आउट, आदि।

अब यदि कोई व्यक्ति AI बनाता है और जानबूझकर उसे प्रोग्राम करने का निर्णय लेता है ताकि वह मानव जैसी विशेषताओं को विकसित करे जैसे अहंकार, अहंकार, लालच इत्यादि ... ठीक है, सभी दांव बंद हो जाते हैं।


1

एआई पहले से ही हथियार के रूप में प्रयोग किया जाता है - ड्रोन पर सोचो।

मुझे संदेह है, "एक रोबोट दुनिया को लेता है" परिदृश्य में सबसे अधिक संभावना है, अगर इसमें एक मध्यवर्ती कदम है। यह मध्यवर्ती कदम "मनुष्य रोबोट के साथ दुनिया भर में ले जा सकता है"।

यह कहीं गलत दिशा में जा सकता है।

मुझे संदेह है, यह निश्चित रूप से अब तक ऐसा नहीं है जैसा लगता है। गौर कीजिए अमेरिका के पास फिलहाल 8000 ड्रोन हैं। क्या होगा अगर इसमें 8 मिलियन का होगा? उन्हें नियंत्रित करने में सक्षम एक छोटा समूह दुनिया भर में ले सकता है। या बेड़े के विभिन्न हिस्सों को नियंत्रित करने वाले छोटे समूह, प्रत्येक अभिजन के खिलाफ लड़ सकते थे। वे सभी अमेरिका में नहीं होना चाहिए - जिस समय अमेरिका के पास यह बेड़ा होगा, अन्य देशों में भी उनका विकास होगा।

Btw, एक विश्व अधिग्रहण मुझे अवास्तविक लगता है - सैन्य नेता शायद मानव पायलटों को ड्रोन में बदल सकते हैं, यह कोई काम नहीं है। लेकिन "उच्च स्तरीय नियंत्रण", यानी यह निर्धारित करने के लिए कि क्या करना है, कौन से लक्ष्य हैं, ये निर्णय वे अपने हाथों से कभी नहीं देंगे।

इसके आगे, रोबोट के पास दीर्घकालिक लक्ष्य नहीं है। हम, मनुष्य, है।

इस प्रकार मैं एक स्काईनेट-शैली के अधिग्रहण को बहुत यथार्थवादी नहीं मानता, लेकिन एक गलत व्याख्या करने वाली कमांड की एक चेरनोबिल-शैली "गलती" है, जिसके परिणामस्वरूप बेड़े की अजेय दरार होती है, मुझे असंभव नहीं लगता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.