स्टीफन हॉकिंग क्यों कहते हैं "आर्टिफिशियल इंटेलिजेंस हम सभी को मार देगा"? [बन्द है]


10

स्टीफन हॉकिंग का यह उद्धरण काफी समय से सुर्खियों में है।

आर्टिफिशियल इंटेलिजेंस मानवता को मिटा सकता है जब यह बहुत चालाक हो जाएगा क्योंकि मनुष्य चींटियों की तरह होगा।

वह ऐसा क्यों कहता है? इसे सीधे शब्दों में कहें तो: AI से संभावित खतरे क्या हैं? यदि हम जानते हैं कि एआई इतना खतरनाक है तो हम अभी भी इसे क्यों बढ़ावा दे रहे हैं? इसे प्रतिबंधित क्यों नहीं किया गया?

तथाकथित तकनीकी विलक्षणता के दुष्परिणाम क्या हैं ?


1
हो सकता है कि यह सवाल तकनीकी विलक्षणता की संभावना के बारे में एक प्रश्न के लिए प्रतिरूपित किया जा सकता है?
रोब मरे

1
@ R.Murray ने संपादित किया और शरीर में अपनी बात जोड़ी ...
tatan

2
मैं माफी चाहता हूँ, लेकिन मुझसे कम है। कृपया, कृपया, कृपया सट्टा वालों के बजाय जवाबदेह प्रश्न पूछें। मेरा मतलब है "स्टीफन हॉकिंग क्यों कहते हैं" आर्टिफिशियल इंटेलिजेंस हम सभी को मार देगा "?"। क्या आप सही जवाब होने की उम्मीद करते हैं? हमें विशेषज्ञों को आकर्षित करने के लिए शुरुआती बीटा के रूप में तकनीकी प्रश्नों की आवश्यकता है, बजाय किसी को जो कुछ विकिपीडिया पृष्ठों को पढ़ने से बुनियादी ज्ञान है। फिर से उद्धृत करते हुए- "स्टीफन हॉकिंग क्यों कहते हैं" आर्टिफिशियल इंटेलिजेंस हम सभी को मार देगा "?"। मुझे नहीं लगता कि इसका जवाब देने के लिए किसी विशेषज्ञता की जरूरत है। क्षमा करें यदि मैं अपने छोटे शेख़ी में अशिष्ट के रूप में आया हूं: पी
रुस्तत राय

संपादित करने के बाद सवाल बेहतर है, लेकिन एक से पूछे जाने वाले प्रश्नों की संख्या को कम करना अच्छा होगा। उदाहरण के लिए, आप पूछ सकते हैं "एआई मानवता को कैसे मिटा सकता है?" (जैसा कि आप कर रहे हैं लगता है), लेकिन क्यों यह अभी भी इतनी भारी शोध किया जा रहा है एक अलग सवाल है।
बेन एन

2
मुझे लगता है कि शीर्षक में सवाल एक बुरा सवाल नहीं है। इसका एक जवाब है, क्योंकि यह इस बारे में पूछ रहा है कि स्टीफन हॉकिंग क्या सोचते हैं। शरीर के अन्य प्रश्न इससे अलग हैं और इन्हें हटा दिया जाना चाहिए। मैं इस बात से सहमत हूं कि यह उस तरह का सवाल नहीं है जो विशेषज्ञों को आकर्षित करेगा
हर्ष

जवाबों:


5

यह सिर्फ हॉकिंग नहीं है, आप बहुत से लोगों से इस परहेज पर बदलाव सुनते हैं। और यह देखते हुए कि वे ज्यादातर स्मार्ट, अच्छी तरह से शिक्षित, अच्छी तरह से सूचित लोग हैं (एलोन मस्क एक और है, उदाहरण के लिए), यह शायद हाथ से खारिज नहीं किया जाना चाहिए।

वैसे भी, मूल विचार यह प्रतीत होता है: यदि हम किसी बिंदु पर "वास्तविक" कृत्रिम बुद्धिमत्ता का निर्माण करते हैं, तो यह स्वयं को सुधारने में सक्षम होगा, जो इसे सुधारने की क्षमता में सुधार करता है, जिसका अर्थ है कि यह सुधार कर सकता है यह स्वयं को सुधारने की क्षमता भी है अधिक, और इतने पर ... एक भगोड़ा झरना "अलौकिक बुद्धि" के लिए अग्रणी। यह कहना है, कुछ है कि हम क्षेत्र से अधिक बुद्धिमान के लिए अग्रणी।

तो क्या होता है अगर इस ग्रह पर एक इकाई है जो सचमुच हमारे (मनुष्यों) से अधिक बुद्धिमान है? क्या यह हमारे लिए खतरा होगा? ठीक है, यह निश्चित रूप से अनुमान लगाने के लिए उचित लगता है कि ऐसा हो सकता है। OTOH, हमारे पास अभी कोई विशेष कारण नहीं है, यह सोचने के लिए कि ऐसा होगा

तो ऐसा लगता है कि हॉकिंग, मस्क आदि चीजों के अधिक सतर्क / भयभीत पक्ष पर उतर रहे हैं। चूँकि हम नहीं जानते कि कोई अलौकिक एआई खतरनाक होगा या नहीं, और यह देखते हुए कि अगर यह दुर्भावनापूर्ण हो जाए तो यह अजेय हो सकता है (याद रखें, यह हमारी तुलना में अधिक चालाक है!), यह ध्यान में रखना एक उचित बात है।

एलीएजर युडकोव्स्की ने भी इस विषय पर काफी कुछ लिखा है, जिसमें प्रसिद्ध "एआई बॉक्स" प्रयोग भी शामिल है। मुझे लगता है कि इस विषय में रुचि रखने वाले किसी व्यक्ति को उसकी कुछ सामग्री पढ़नी चाहिए।

http://www.yudkowsky.net/singularity/aibox/


1
मुझे लगता है कि एआई बॉक्स वास्तव में एआई जोखिम के लिए एक बुरा परिचय है; यह स्पष्टीकरण के एक विशिष्ट छोटे हिस्से को लक्षित करता है, जो है "किसी को भी बॉक्स से एआई को बाहर जाने के लिए कैसे आश्वस्त किया जा सकता है?"। किसी को जो यह सोचता है कि एआई का उपयोग करने लायक है, उन्होंने पहले ही तय कर लिया है कि यह बॉक्स से बाहर जाने लायक है। मुझे लगता है कि ऑर्थोगोनलिटी थीसिस शुरू करने के लिए सबसे अच्छी जगह है।
मैथ्यू ग्रेव्स

काफी उचित। मैं सिर्फ युडकोव्स्की के लेखन से अधिक परिचित होना चाहता हूं। मैं निश्चित रूप से इस विषय पर अन्य कार्यों के महत्व को कम करने का मतलब नहीं है।
माइंडक्राइम 16

4

क्योंकि वह अभी तक नहीं जानता था कि वर्तमान एआई कितनी दूर है ... एक मीडिया एआई लैब में काम करते हुए, मुझे यह सवाल बहुत मिलता है। लेकिन वास्तव में ... हम अभी भी इससे बहुत दूर हैं। रोबोट अभी भी सब कुछ करते हैं जो हम अलग-अलग करते हैं उन्हें करने के लिए वर्णन करते हैं। रोबोट को बुद्धिमान के रूप में देखने के बजाय, मैं मानव प्रोग्रामर को देखता हूं जहां रचनात्मकता वास्तव में होती है।


अनुसंधान की स्थिति का ईमानदारी से मूल्यांकन प्रगति के स्तंभों में से एक है। धन्यवाद। मैं सहमत हूँ।
फौच्रिशियन

3

इसे केवल आम शब्दों में कहें, तो AI से संभावित खतरे क्या हैं?

वर्तमान में, कोई खतरा नहीं हैं।

यह खतरा तब होता है जब मनुष्य एक तथाकथित अल्ट्राइंटिंजेंट मशीन बनाते हैं, एक ऐसी मशीन जो किसी भी मानव द्वारा सभी बौद्धिक गतिविधियों को पार कर सकती है। यह अंतिम आविष्कार आदमी को करने की आवश्यकता होगी, क्योंकि यह मशीन मनुष्यों की तुलना में मशीनों का आविष्कार करने में बेहतर है (क्योंकि यह एक बौद्धिक उपकरण है)। हालाँकि, यह मशीन को उन मशीनों का आविष्कार करने का कारण बन सकता है जो मनुष्यों को नष्ट कर सकते हैं, और हम उन्हें रोक नहीं सकते क्योंकि वे हमारे मुकाबले बहुत अधिक होशियार हैं।

यह सब काल्पनिक है, किसी के पास यह भी सुराग नहीं है कि एक अल्ट्रांटिजेन्ट मशीन कैसी दिखती है।

यदि हम जानते हैं कि एआई इतना खतरनाक है तो हम अभी भी इसे क्यों बढ़ावा दे रहे हैं? इसे प्रतिबंधित क्यों नहीं किया गया?

जैसा कि मैंने पहले कहा था, एक अल्ट्राटाइन्जेंट मशीन का अस्तित्व काल्पनिक है। आर्टिफिशियल इंटेलिजेंस में बहुत सारे उपयोगी एप्लिकेशन हैं (इस उत्तर में अधिक से अधिक शामिल हो सकते हैं), और अगर हम इसे विकसित करते हैं, तो हमें और भी अधिक उपयोगी एप्लिकेशन मिलते हैं। हमें बस इस बात का ध्यान रखना है कि मशीनें हमसे आगे न निकल जाएं।


3

जैसा कि एंड्रयू एनजी ने कहा , एआई से इस तरह के खतरे के बारे में चिंता करना मंगल ग्रह पर अतिवृष्टि के बारे में चिंता करने जैसा है। यह विज्ञान कथा है।

यहाँ छवि विवरण दर्ज करें

कहा जा रहा है कि, (बहुत कमजोर) रोबोट और अन्य (अर्द्ध) स्वायत्त एजेंटों के उदय को देखते हुए , कानून और नैतिकता के क्षेत्र तेजी से उन्हें शामिल कर रहे हैं, उदाहरण के लिए रोबोएथिक्स देखें ।


3

इस तरह के प्रश्न का उत्तर देने के लिए कई लंबे संसाधन हैं: स्टुअर्ट आर्मस्ट्रांग की पुस्तक होशियार थान अस , निक बोस्ट्रोम्स की पुस्तक सुपरिन्टिजेन्स पर विचार करें , जो इस बढ़त से बाहर हो गई। उत्तर , टिम अर्बन का स्पष्टीकरण , या माइकल कोहेन का स्पष्टीकरण

लेकिन यहाँ मेरा (कुछ छोटा) उत्तर है: बुद्धिमत्ता सभी निर्णय लेने के बारे में है, और हमारे पास यह मानने का कोई कारण नहीं है कि मनुष्य निर्णय लेने के समय कहीं भी संभव हो सकता है। एक बार जब हम एक AI AI शोधकर्ता का निर्माण करने में सक्षम हो जाते हैं (अर्थात, एक ऐसा कंप्यूटर जो सोच में कंप्यूटर को बेहतर बनाना जानता है), तो मनुष्यों की आर्थिक और सैन्य प्रासंगिकता तेजी से गायब हो जाएगी क्योंकि कोई भी निर्णय जो मानव द्वारा किया जा सकता है। एक कंप्यूटर द्वारा बेहतर। (रोबोट जनरलों के बजाय मानव जनरलों के पास क्यों है, रोबोट इंजीनियरों के बजाय मानव इंजीनियरों, और इसी तरह।)

यह जरूरी नहीं कि एक तबाही है। यदि वल्कन्स ने कल दिखाया और बेहतर निर्णय लेने के लिए पृथ्वी पर लाया, तो हम बहुत दुख से बच सकते हैं। कठिन हिस्सा यह सुनिश्चित कर रहा है कि जो हमें मिलता है वह वल्कन्स हैं जो हमारे आस-पास और खुश हैं, इसके बजाय कुछ ऐसा है जो हमारे मूल्यों को साझा नहीं करता है।


3

वह ऐसा इसलिए कहता है क्योंकि ऐसा हो सकता है। अगर कोई चीज हमसे ज्यादा स्मार्ट हो जाती है, तो वह हमारी सेवा क्यों करती रहेगी? सबसे खराब स्थिति यह है कि यह सभी निर्माण प्रक्रियाओं को पूरा कर लेता है और सभी पदार्थों की खपत करने में सक्षम बनाता है, जब तक कि सभी पदार्थ का उपभोग नहीं किया जाता है, तब तक बाहरी रूप से गणना की जा सकती है।

हम जानते हैं कि एआई खतरनाक है लेकिन इससे कोई फर्क नहीं पड़ता क्योंकि ज्यादातर लोग इस पर विश्वास नहीं करते हैं। यह हर आराम धर्म के खिलाफ जाता है। मनुष्य ब्रह्मांड का अंत-सब-का-सब है और अगर यह तथ्य विवादित है, तो लोग जगह से बाहर और उद्देश्यहीन महसूस करेंगे।

तथ्य यह है कि ज्यादातर लोग सिर्फ यह स्वीकार करते हैं कि यह संभव नहीं है, या यह कि यह हमारे जीवन काल में होगा, भले ही कई प्रतिष्ठित एआई विशेषज्ञों ने दो दशकों के भीतर विलक्षणता की घटना को रखा हो। अगर लोग सही मायने में स्वीकार करते हैं कि एआई उनसे अधिक चालाक था, तो क्या वे अलग तरह से नहीं रह रहे होंगे? क्या वे ऐसी चीजें करना नहीं चाहेंगे जो उन्हें पसंद है, यह जानते हुए कि वे जो कुछ भी करते हैं वह यह है कि वे स्वचालित हो जाएंगे? क्या हर कोई सार्वभौमिक बुनियादी आय के लिए नहीं कहेगा?

दूसरा कारण है कि हम इस पर प्रतिबंध नहीं लगाते हैं क्योंकि इसका वादा बहुत बढ़िया है। एक शोधकर्ता को 1,000 डिजिटल अनुसंधान सहायकों द्वारा संवर्धित किया जा सकता है। सभी मैनुअल श्रम स्वचालित हो सकते हैं। पहली बार, प्रौद्योगिकी हमें वास्तविक स्वतंत्रता प्रदान करती है कि हम जो चाहें करें।

लेकिन इस सर्वोत्तम स्थिति में भी, जहाँ यह हमसे आगे नहीं निकलती है, मनुष्य को अभी भी अपनी आर्थिक प्रणाली को अनुकूलित करना और बदलना पड़ता है जहाँ श्रम आवश्यक नहीं है। अन्यथा, जो लोग तकनीकी रूप से प्रशिक्षित नहीं हैं वे भूखे और विद्रोह करेंगे।


क्या आपके पास इसके लिए सॉस है -> "एआई विशेषज्ञों ने विलक्षणता की घटना को दो दशकों के भीतर डाल दिया है" , कृपया? ;)
डैनियल

मुझे मूल सर्वेक्षण नहीं मिल रहा है, लेकिन ये साइटें करीब आती हैं: aiimpacts.org/predictions-of-human-level-ai-timelines - aiimpacts.org/ai-timeline-suradys - techemergence.com/artific-intelligence -क्रिस्क
जावरा
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.