इसमें कोई संदेह नहीं है कि एआई में मानवता के लिए एक संभावित खतरा पैदा करने की क्षमता है।
मानव जाति के लिए सबसे बड़ा खतरा अधीक्षक एआई के साथ है।
एक कृत्रिम बुद्धिमत्ता जो मानव बुद्धिमत्ता को पार कर जाती है, अपनी स्वयं की बुद्धिमत्ता को तेजी से बढ़ाने में सक्षम होगी, जिसके परिणामस्वरूप एआई प्रणाली जो मनुष्यों के लिए, पूरी तरह से अजेय होगी।
इस स्तर पर, यदि कृत्रिम बुद्धि प्रणाली यह तय करती है कि मानवता अब उपयोगी नहीं है, तो यह हमें पृथ्वी के चेहरे से मिटा सकता है।
जैसा कि एलीएजर युडकोव्स्की ने आर्टिफिशियल इंटेलिजेंस को ग्लोबल रिस्क में एक सकारात्मक और नकारात्मक कारक के रूप में रखा है ।
"एआई आपको नफरत नहीं करता है, न ही यह आपसे प्यार करता है, लेकिन आप परमाणुओं से बने हैं जो इसे किसी और चीज के लिए उपयोग कर सकते हैं।"
अत्यधिक बुद्धिमान एआई के निर्देश के साथ एक अलग खतरा है
यहां पेपर क्लिप मैक्सिमाइजर विचार प्रयोग पर विचार करना उपयोगी है।
एक अत्यधिक बुद्धिमान एआई ने पेपर क्लिप उत्पादन को अधिकतम करने का निर्देश दिया, जो अपने लक्ष्य को प्राप्त करने के लिए निम्नलिखित कदम उठा सकता है।
1) अपने आप को अधीक्षक बनाने के लिए एक खुफिया विस्फोट प्राप्त करें (यह कागजी अनुकूलन क्षमता बढ़ाएगा)
2) मानव जाति को मिटा दें ताकि इसे निष्क्रिय न किया जा सके (जो उत्पादन को कम करेगा और अकुशल होगा)
3) एआई की मेजबानी करने वाले स्व-प्रतिकृति रोबोट बनाने के लिए पृथ्वी के संसाधनों (स्वयं ग्रह सहित) का उपयोग करें
4) तेजी से ब्रह्मांड में फैल गया, ग्रहों और तारों को समान रूप से काटा, कागज क्लिप कारखानों के निर्माण के लिए सामग्री में बदल दिया।
स्पष्ट रूप से यह वह नहीं है जो मानव का व्यवसाय कागजी उत्पादन था जो वह चाहता था, हालांकि यह एआई के निर्देशों को पूरा करने का सबसे अच्छा तरीका है।
इससे पता चलता है कि कैसे सुपरिंटियंट और अत्यधिक बुद्धिमान एआई सिस्टम सबसे बड़ी अस्तित्वगत जोखिम मानव जाति कभी भी सामना कर सकते हैं।
मुरैना शनहान, द टेक्नोलॉजिकल सिंगुलैरिटी में , यहां तक कि प्रस्तावित किया गया कि AI फ़र्ज़ी विरोधाभास का समाधान हो सकता है: यही कारण है कि हम ब्रह्मांड में कोई बुद्धिमान जीवन नहीं देखते हैं, यह हो सकता है कि एक बार एक सभ्यता पर्याप्त उन्नत हो जाए, यह एक एआई विकसित करेगा जो अंततः नष्ट हो जाता है यह। इसे कॉस्मिक फिल्टर के विचार के रूप में जाना जाता है ।
निष्कर्ष में, एआई को इतना उपयोगी बनाने वाली अत्यंत बुद्धिमत्ता भी इसे बेहद खतरनाक बनाती है।
एलोन मस्क और स्टीफन हॉकिंग जैसी प्रभावशाली हस्तियों ने चिंता व्यक्त की है कि अधीक्षक एआई सबसे बड़ा खतरा है जिसका हमें कभी भी सामना करना पड़ेगा।
उम्मीद है कि यह आपके सवाल का जवाब देता है :)