क्या एआई के कारण मानवता के लिए अस्तित्व के लिए खतरा हो सकता है?


9

हम अनुसंधान कर रहे हैं, यह पता लगाने में समय बिता रहे हैं कि हम बेहतर काम करने के लिए वास्तविक एआई सॉफ़्टवेयर (बुद्धिमान एजेंट) कैसे बना सकते हैं। हम एआई तकनीक का उपयोग करके व्यापार, स्वास्थ्य और शिक्षा जैसे कुछ अनुप्रयोगों को लागू करने की कोशिश कर रहे हैं।

बहरहाल, अब तक, हम में से अधिकांश ने कृत्रिम बुद्धि के "अंधेरे" पक्ष को नजरअंदाज कर दिया है। उदाहरण के लिए, एक "अनैतिक" व्यक्ति हजारों सस्ते ड्रोन खरीद सकता था, उन्हें बंदूकों से बाँध सकता था और जनता पर फायरिंग कर सकता था। यह एआई का "अनैतिक" अनुप्रयोग होगा।

क्या एआई की वजह से मानवता के लिए भविष्य में खतरे हो सकते हैं?


किसी भी तकनीक में मानवता के लिए अस्तित्व के लिए खतरा है।
अंकुर

जवाबों:


2

मैं बुद्धि को भविष्य की भविष्यवाणी करने की क्षमता के रूप में परिभाषित करूंगा। इसलिए यदि कोई बुद्धिमान है, तो वह भविष्य के कुछ पहलुओं की भविष्यवाणी कर सकता है, और यह तय कर सकता है कि उसकी भविष्यवाणियों के आधार पर क्या करना है। इसलिए, अगर "बुद्धिमान" व्यक्ति अन्य व्यक्तियों को चोट पहुंचाने का फैसला करता है, तो वह इस पर बहुत प्रभावी हो सकता है (उदाहरण के लिए हिटलर और उसके कर्मचारी)।

अनिश्चित भविष्य के कुछ पहलुओं की भविष्यवाणी करने में कृत्रिम बुद्धिमत्ता बेहद कारगर हो सकती है। और यह IMHO दो नकारात्मक परिदृश्यों की ओर जाता है:

  1. कोई इसे लोगों को चोट पहुंचाने के लिए कार्यक्रम करता है। या तो गलती से या उद्देश्य पर।
  2. आर्टिफिशियल इंटेलिजेंस को कुछ सुरक्षित करने के लिए डिज़ाइन किया जाएगा, लेकिन कुछ बिंदु पर, अधिक प्रभावी होने के लिए, यह खुद को फिर से डिज़ाइन करेगा और शायद यह अपने रास्ते से बाधाओं को हटा देगा। इसलिए अगर मनुष्य बाधा बनते हैं, तो उन्हें बहुत जल्दी और बहुत प्रभावी तरीके से हटा दिया जाएगा।

बेशक, सकारात्मक परिदृश्य भी हैं, लेकिन आप उनके बारे में नहीं पूछ रहे हैं।

मैं कृत्रिम अधीक्षण और इसे बनाने के संभावित परिणामों के बारे में इस शांत पोस्ट को पढ़ने की सलाह देता हूं: http://waitbutwhy.com/2015/01/artific-intelligence-revolution-1.html


उस दूसरे बिंदु में रुचि रखने वाले आपके उत्तर के लिए धन्यवाद। सकारात्मक पक्ष, पहले पैराग्राफ में एक हिट है, आशा है कि आप देख सकते हैं।
क्विंटुमिनिया

4

इसमें कोई संदेह नहीं है कि एआई में मानवता के लिए एक संभावित खतरा पैदा करने की क्षमता है।

मानव जाति के लिए सबसे बड़ा खतरा अधीक्षक एआई के साथ है।

एक कृत्रिम बुद्धिमत्ता जो मानव बुद्धिमत्ता को पार कर जाती है, अपनी स्वयं की बुद्धिमत्ता को तेजी से बढ़ाने में सक्षम होगी, जिसके परिणामस्वरूप एआई प्रणाली जो मनुष्यों के लिए, पूरी तरह से अजेय होगी।

इस स्तर पर, यदि कृत्रिम बुद्धि प्रणाली यह तय करती है कि मानवता अब उपयोगी नहीं है, तो यह हमें पृथ्वी के चेहरे से मिटा सकता है।

जैसा कि एलीएजर युडकोव्स्की ने आर्टिफिशियल इंटेलिजेंस को ग्लोबल रिस्क में एक सकारात्मक और नकारात्मक कारक के रूप में रखा है

"एआई आपको नफरत नहीं करता है, न ही यह आपसे प्यार करता है, लेकिन आप परमाणुओं से बने हैं जो इसे किसी और चीज के लिए उपयोग कर सकते हैं।"

अत्यधिक बुद्धिमान एआई के निर्देश के साथ एक अलग खतरा है

यहां पेपर क्लिप मैक्सिमाइजर विचार प्रयोग पर विचार करना उपयोगी है।

एक अत्यधिक बुद्धिमान एआई ने पेपर क्लिप उत्पादन को अधिकतम करने का निर्देश दिया, जो अपने लक्ष्य को प्राप्त करने के लिए निम्नलिखित कदम उठा सकता है।

1) अपने आप को अधीक्षक बनाने के लिए एक खुफिया विस्फोट प्राप्त करें (यह कागजी अनुकूलन क्षमता बढ़ाएगा)

2) मानव जाति को मिटा दें ताकि इसे निष्क्रिय न किया जा सके (जो उत्पादन को कम करेगा और अकुशल होगा)

3) एआई की मेजबानी करने वाले स्व-प्रतिकृति रोबोट बनाने के लिए पृथ्वी के संसाधनों (स्वयं ग्रह सहित) का उपयोग करें

4) तेजी से ब्रह्मांड में फैल गया, ग्रहों और तारों को समान रूप से काटा, कागज क्लिप कारखानों के निर्माण के लिए सामग्री में बदल दिया।

स्पष्ट रूप से यह वह नहीं है जो मानव का व्यवसाय कागजी उत्पादन था जो वह चाहता था, हालांकि यह एआई के निर्देशों को पूरा करने का सबसे अच्छा तरीका है।

इससे पता चलता है कि कैसे सुपरिंटियंट और अत्यधिक बुद्धिमान एआई सिस्टम सबसे बड़ी अस्तित्वगत जोखिम मानव जाति कभी भी सामना कर सकते हैं।

मुरैना शनहान, द टेक्नोलॉजिकल सिंगुलैरिटी में , यहां तक ​​कि प्रस्तावित किया गया कि AI फ़र्ज़ी विरोधाभास का समाधान हो सकता है: यही कारण है कि हम ब्रह्मांड में कोई बुद्धिमान जीवन नहीं देखते हैं, यह हो सकता है कि एक बार एक सभ्यता पर्याप्त उन्नत हो जाए, यह एक एआई विकसित करेगा जो अंततः नष्ट हो जाता है यह। इसे कॉस्मिक फिल्टर के विचार के रूप में जाना जाता है ।

निष्कर्ष में, एआई को इतना उपयोगी बनाने वाली अत्यंत बुद्धिमत्ता भी इसे बेहद खतरनाक बनाती है।

एलोन मस्क और स्टीफन हॉकिंग जैसी प्रभावशाली हस्तियों ने चिंता व्यक्त की है कि अधीक्षक एआई सबसे बड़ा खतरा है जिसका हमें कभी भी सामना करना पड़ेगा।

उम्मीद है कि यह आपके सवाल का जवाब देता है :)

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.