हम अक्सर सुनते हैं कि कृत्रिम बुद्धि मनुष्यों को नुकसान पहुंचा सकती है या मार भी सकती है, इसलिए यह खतरनाक साबित हो सकता है।
कृत्रिम बुद्धि हमें कैसे नुकसान पहुंचा सकती है?
हम अक्सर सुनते हैं कि कृत्रिम बुद्धि मनुष्यों को नुकसान पहुंचा सकती है या मार भी सकती है, इसलिए यह खतरनाक साबित हो सकता है।
कृत्रिम बुद्धि हमें कैसे नुकसान पहुंचा सकती है?
जवाबों:
ऐसे कई वैध कारण हैं कि लोग एआई से डर सकते हैं (या बेहतर रूप से चिंतित हैं ), सभी में रोबोट और एपोकैलिक परिदृश्य शामिल नहीं हैं।
इन चिंताओं का बेहतर वर्णन करने के लिए, मैं उन्हें तीन श्रेणियों में विभाजित करने का प्रयास करूँगा।
यह AI का प्रकार है जिससे आपका प्रश्न संदर्भित होता है। एक सुपर-बुद्धिमान सचेत एआई जो मानवता को नष्ट / गुलाम करेगा। यह ज्यादातर विज्ञान-कथा द्वारा हमारे पास लाया जाता है। कुछ उल्लेखनीय हॉलीवुड उदाहरण "टर्मिनेटर" , "द मैट्रिक्स" , "एज ऑफ अल्ट्रॉन" हैं । सबसे प्रभावशाली उपन्यास इसाक असिमोव द्वारा लिखे गए थे और उन्हें "रोबोट श्रृंखला" के रूप में जाना जाता है (जिसमें "आई, रोबोट" शामिल है , जिसे एक फिल्म के रूप में भी अनुकूलित किया गया था)।
इन कार्यों में से अधिकांश के तहत मूल आधार यह है कि एआई एक ऐसे बिंदु पर विकसित होगा जहां यह सचेत हो जाएगा और बुद्धि में मनुष्यों से आगे निकल जाएगा। जबकि हॉलीवुड फिल्में मुख्य रूप से रोबोट और उनके और मनुष्यों के बीच लड़ाई पर ध्यान केंद्रित करती हैं, वास्तविक एआई (यानी "मस्तिष्क" उन्हें नियंत्रित करने के लिए) पर पर्याप्त जोर नहीं दिया जाता है। एक साइड नोट के रूप में, कथा के कारण, इस AI को आमतौर पर सब कुछ नियंत्रित करने वाले सुपर कंप्यूटर के रूप में चित्रित किया जाता है (ताकि नायक का एक विशिष्ट लक्ष्य हो)। "अस्पष्ट बुद्धि" (जो मुझे लगता है कि अधिक यथार्थवादी है) पर पर्याप्त खोज नहीं की गई है।
वास्तविक दुनिया में, AI विशिष्ट कार्यों को हल करने पर केंद्रित है! एक एआई एजेंट जो विभिन्न डोमेन से समस्याओं को हल करने में सक्षम है (जैसे भाषण को समझना और छवियों को संसाधित करना और ड्राइविंग और ... - जैसे मनुष्य हैं) को जनरल आर्टिफिशियल इंटेलिजेंस के रूप में संदर्भित किया जाता है और एआई को "सोचने" और बनने में सक्षम होने के लिए आवश्यक है। होश में।
वास्तविक रूप से, हम जनरल आर्टिफिशियल इंटेलिजेंस से एक अच्छा तरीका है! कहा जा रहा है कि भविष्य में इसे हासिल नहीं किया जा सकता है, इस पर कोई सबूत नहीं है। इसलिए वर्तमान में, यहां तक कि अगर हम अभी भी एआई की प्रारंभिक अवस्था में हैं, तो हमारे पास यह मानने का कोई कारण नहीं है कि एआई उस बिंदु पर विकसित नहीं होगा जहां यह मनुष्यों की तुलना में अधिक बुद्धिमान है।
भले ही दुनिया पर विजय प्राप्त करने वाला एक एआई ऐसा करने से एक लंबा रास्ता तय करता है , आज एआई के साथ संबंध होने के कई कारण हैं , जिसमें रोबोट शामिल नहीं हैं! दूसरी श्रेणी जिस पर मैं थोड़ा और ध्यान देना चाहता हूं वह है आज के एआई के कई दुर्भावनापूर्ण उपयोग।
मैं केवल AI अनुप्रयोगों पर ध्यान केंद्रित करूँगा जो आज उपलब्ध हैं । AI के कुछ उदाहरण जिनका उपयोग दुर्भावनापूर्ण इरादे से किया जा सकता है:
डीपफेक : किसी को किसी व्यक्ति को किसी अन्य व्यक्ति के वीडियो पर चेहरा दिखाने की तकनीक। इसने हाल ही में सेलिब्रिटी पोर्न के साथ लोकप्रियता हासिल की है और इसका उपयोग नकली समाचार और झांसे उत्पन्न करने के लिए किया जा सकता है। स्रोत: 1 , 2 , 3
बड़े पैमाने पर निगरानी प्रणालियों और चेहरे की पहचान सॉफ्टवेयर के उपयोग से प्रति सेकंड लाखों चेहरे पहचानने में सक्षम , AI का उपयोग बड़े पैमाने पर निगरानी के लिए किया जा सकता है। भले ही जब हम सामूहिक निगरानी के बारे में सोचते हैं तो हम चीन के बारे में सोचते हैं, लंदन , अटलांटा और बर्लिन जैसे कई पश्चिमी शहर दुनिया के सबसे अधिक सर्वेक्षण वाले शहरों में से हैं । चीन ने सामाजिक ऋण प्रणाली , नागरिकों के लिए एक मूल्यांकन प्रणाली को अपनाते हुए एक कदम आगे बढ़ाया है जो लगता है कि जॉर्ज ऑरवेल के 1984 के पन्नों से सीधे लिया गया है।
सोशल मीडिया के माध्यम से लोगों को प्रभावित कर रहा है । लक्षित विपणन के लक्ष्य के साथ उपयोगकर्ता के स्वाद को पहचानने और प्लेसमेंट (कई इंटरनेट कंपनियों द्वारा एक सामान्य अभ्यास) के अलावा, AI का उपयोग लोगों के मतदान (अन्य चीजों के बीच) को प्रभावित करने के लिए जानबूझकर किया जा सकता है। सूत्रों का कहना है: 1 , 2 , 3 ।
हैकिंग ।
सैन्य अनुप्रयोग, जैसे ड्रोन हमले, मिसाइल लक्ष्यीकरण प्रणाली।
यह श्रेणी बहुत व्यक्तिपरक है, लेकिन एआई के विकास के कुछ प्रतिकूल प्रभाव हो सकते हैं। इस श्रेणी और पिछले के बीच अंतर यह है कि ये प्रभाव, जबकि हानिकारक, जानबूझकर नहीं किए जाते हैं; बल्कि वे एआई के विकास के साथ होते हैं। कुछ उदाहरण निम्न हैं:
नौकरियां निरर्थक हो रही हैं । जैसे-जैसे AI बेहतर होता जाएगा, कई नौकरियों को AI से बदल दिया जाएगा। दुर्भाग्य से ऐसी बहुत सी चीजें नहीं हैं जिनके बारे में किया जा सकता है, क्योंकि अधिकांश तकनीकी विकासों का यह दुष्प्रभाव होता है (जैसे कृषि मशीनरी ने कई किसानों को अपनी नौकरी खो दी, स्वचालन ने कई कारखाने श्रमिकों को बदल दिया, कंप्यूटरों ने भी ऐसा ही किया)।
मजबूत हमारे डेटा में पूर्वाग्रह । यह एक बहुत ही रोचक श्रेणी है, क्योंकि एआई (और विशेष रूप से न्यूरल नेटवर्क) केवल उतना ही अच्छा है जितना डेटा वे प्रशिक्षित हैं और उनमें पहले से ही मौजूद डेटा के विभिन्न रूपों और सामाजिक पूर्वाग्रहों को बढ़ाने की प्रवृत्ति है। नस्लवाद और सेक्सिस्ट व्यवहार प्रदर्शित करने वाले नेटवर्क के कई उदाहरण हैं। सूत्रों का कहना है: 1 , 2 , 3 , 4 ।
क्या मैंने उल्लेख किया है कि ये सभी पहले से ही पूरे जोरों पर हैं?
यद्यपि एआई और एजीआई के बीच कोई स्पष्ट रेखा नहीं है, यह तब और अधिक होता है जब हम एजीआई की ओर आगे बढ़ते हैं। मुझे दो विकल्प दिखाई देते हैं:
पहले मामले में, यदि कोई AI "बदमाश" हो जाता है, तो हम उसे बाहर निकालने और बेअसर करने के लिए अन्य AI का निर्माण कर सकते हैं। दूसरे मामले में, हम नहीं कर सकते हैं, और हम बर्बाद हो रहे हैं। AI एक नया जीवन रूप होगा और हम विलुप्त हो सकते हैं।
यहाँ कुछ संभावित समस्याएं हैं:
मुझे लगता है कि एजीआई आ रहा है और हमें इन समस्याओं से सावधान रहने की जरूरत है ताकि हम उन्हें कम से कम कर सकें।
अन्य उत्तरों के अलावा, मैं कुकिंग कुकी फैक्टरी उदाहरण में जोड़ना चाहूंगा:
मशीन लर्निंग एआई मूल रूप से मनुष्यों द्वारा वर्णित एक लक्ष्य को पूरा करने की कोशिश करते हैं। उदाहरण के लिए, मानव एक कुकी फैक्ट्री चलाने वाला AI बनाता है। वे जिस लक्ष्य को लागू करते हैं वह उच्चतम लाभदायक मार्जिन के लिए यथासंभव अधिक से अधिक कुकीज़ बेचने का है।
अब, एक एआई की कल्पना करें जो पर्याप्त रूप से शक्तिशाली हो। यह एआई नोटिस करेगा कि यदि वह अन्य सभी कुकी कारखानों का समर्थन करता है, तो हर किसी को अपने कारखाने में कुकीज़ खरीदने होंगे, जिससे बिक्री बढ़ेगी और मुनाफा अधिक होगा।
इसलिए, यहां मानवीय त्रुटि एल्गोरिथ्म में हिंसा का उपयोग करने के लिए कोई जुर्माना नहीं दे रही है। यह आसानी से नजरअंदाज कर दिया जाता है क्योंकि मानव इस निष्कर्ष पर आने के लिए एल्गोरिदम की उम्मीद नहीं करता था।
एआई द्वारा नुकसान के लिए मेरा पसंदीदा परिदृश्य में उच्च बुद्धि नहीं है, लेकिन कम बुद्धि है। विशेष रूप से, ग्रे गूओ परिकल्पना।
यह वह जगह है जहां एक स्व-प्रतिकृति, स्वचालित प्रक्रिया एमोक चलती है और सभी संसाधनों को स्वयं की प्रतियों में परिवर्तित करती है।
यहाँ मुद्दा यह है कि उच्च बुद्धि या सामान्य बुद्धि होने के अर्थ में एआई "स्मार्ट" नहीं है - यह केवल एक ही चीज़ पर बहुत अच्छा है और इसमें तेजी से दोहराने की क्षमता है।
मैं कहूंगा कि सबसे बड़ा वास्तविक खतरा असंतुलित / बाधित करना होगा जो हम पहले से देख रहे हैं। देश को 90% काम से बाहर रखने के परिवर्तन वास्तविक हैं, और यदि आप उनके माध्यम से सोचते हैं तो परिणाम (जो धन का अधिक असमान वितरण होगा) भयानक हैं।
मेरे पास एक उदाहरण है जो जनता के डर के विपरीत दिशा में चलता है, लेकिन एक बहुत ही वास्तविक चीज है, जिसे मैं पहले से ही देख रहा हूं। यह एआई-विशिष्ट नहीं है, लेकिन मुझे लगता है कि यह एआई के माध्यम से खराब हो जाएगा। यह एआई निष्कर्ष पर भरोसा करने वाले मनुष्यों की समस्या है जो गंभीर अनुप्रयोगों में आँख बंद करके भरोसा करते हैं ।
हमारे पास कई क्षेत्र हैं जिनमें मानव विशेषज्ञों को निर्णय लेना है। उदाहरण के लिए दवा लें - क्या हमें दवा X या दवा Y देनी चाहिए? जिन स्थितियों को मैं ध्यान में रखता हूं, वे अक्सर जटिल समस्याएं हैं (सिनफिन अर्थ में) जहां किसी को बहुत बारीकी से ध्यान देना और बहुत सारी विशेषज्ञता का उपयोग करना बहुत अच्छी बात है, और परिणाम वास्तव में मायने रखता है।
चिकित्सा के जानकारों की मांग है कि दवा में इस तरह की समस्या के लिए निर्णय समर्थन प्रणाली लिखी जाए (और मुझे लगता है कि अन्य डोमेन में भी इसी प्रकार की है)। वे अपनी पूरी कोशिश करते हैं, लेकिन उम्मीद हमेशा यह है कि एक मानव विशेषज्ञ हमेशा सिस्टम के सुझाव को केवल एक और राय के रूप में विचार करेगा, जब वह निर्णय लेगा। कई मामलों में, ज्ञान की स्थिति और डेवलपर्स के लिए उपलब्ध संसाधनों को देखते हुए, किसी और चीज का वादा करना गैर-जिम्मेदाराना होगा। एक विशिष्ट उदाहरण रेडियोमिक्स में कंप्यूटर विज़न का उपयोग होगा: एक मरीज को सीटी स्कैन मिलता है और एआई को छवि को संसाधित करना होता है और यह तय करना होता है कि मरीज को ट्यूमर है या नहीं।
बेशक, एआई सही नहीं है। यहां तक कि जब सोने के मानक के खिलाफ मापा जाता है, तो यह कभी भी 100% सटीकता प्राप्त नहीं करता है। और फिर ऐसे सभी मामले हैं जहां यह अपने लक्ष्य मैट्रिक्स के खिलाफ अच्छा प्रदर्शन करता है, लेकिन समस्या इतनी जटिल थी कि लक्ष्य मीट्रिक इसे अच्छी तरह से कैप्चर नहीं करता है - मैं सीटी संदर्भ में एक उदाहरण के बारे में नहीं सोच सकता, लेकिन मुझे लगता है हम इसे एसई पर भी यहां देखते हैं, जहां एल्गोरिदम पदों में लोकप्रियता का पक्ष लेते हैं, जो कि तथ्यात्मक शुद्धता के लिए एक अपूर्ण प्रॉक्सी है।
आप शायद उस आखिरी पैराग्राफ को पढ़ रहे थे और साथ में सिर हिला रहे थे, "हाँ, मैंने सीखा है कि पहले परिचयात्मक एमएल कोर्स में मैंने लिया था"। अंदाज़ा लगाओ? चिकित्सकों ने कभी भी परिचयात्मक एमएल कोर्स नहीं लिया। चिकित्सा पत्रिकाओं में प्रदर्शित होने वाले पत्रों के निष्कर्ष को समझने के लिए उनके पास शायद ही पर्याप्त सांख्यिकीय साक्षरता है। जब वे अपने 27 वें मरीज से बात कर रहे होते हैं, 7 घंटे 16 घंटे की शिफ्ट में, भूखे और भावनात्मक रूप से जल चुके होते हैं, और सीटी यह सब स्पष्ट नहीं दिखता है, लेकिन कंप्यूटर कहता है कि "यह एक दुर्भावना नहीं है", वे नहीं करते हैं छवि पर ध्यान केंद्रित करने के लिए दस और मिनट लें, या एक पाठ्यपुस्तक देखें, या किसी सहकर्मी के साथ परामर्श करें। वे बस कंप्यूटर के साथ क्या कहते हैं, आभारी हैं कि उनका संज्ञानात्मक भार फिर से आसमान छू नहीं रहा है। इसलिए वे विशेषज्ञ होने से बदलकर ऐसे लोग बन जाते हैं जो एक स्क्रीन से कुछ पढ़ते हैं। और भी बुरा, कुछ अस्पतालों में प्रशासन केवल कंप्यूटरों पर भरोसा नहीं करता है, यह भी पता चला है कि वे सुविधाजनक बलि का बकरा हैं। तो, एक चिकित्सक के पास एक खराब कूबड़ है जो कंप्यूटर के आउटपुट के खिलाफ जाता है, उनके लिए उस कूबड़ पर कार्रवाई करना और खुद का बचाव करना मुश्किल हो जाता है कि उन्होंने AI की राय को ओवररोड करना चुना।
एआई शक्तिशाली और उपयोगी उपकरण हैं, लेकिन हमेशा ऐसे कार्य होंगे जहां वे टूलवाइल्डर को प्रतिस्थापित नहीं कर सकते।
यह केवल अन्य उत्तर के पूरक होने का इरादा रखता है इसलिए मैं एआई की संभावना के बारे में चर्चा नहीं करूंगा जो स्वेच्छा से दासता की कोशिश कर रहा है।
लेकिन एक अलग जोखिम पहले से ही यहां है। मैं इसे अनमास्टर्ड टेक्नोलॉजी कहूंगा । मुझे विज्ञान और प्रौद्योगिकी सिखाई गई है, और IMHO, AI ने खुद को अच्छे और बुरे, और न ही स्वतंत्रता की कोई धारणा दी है। लेकिन यह मानव द्वारा निर्मित और उपयोग किया जाता है और इसके कारण गैर तर्कसंगत व्यवहार शामिल हो सकता है।
मैं एआई की तुलना में सामान्य आईटी से संबंधित वास्तविक जीवन उदाहरण के साथ शुरू करूंगा। मैं वायरस या अन्य malwares की बात करूंगा। कंप्यूटर बल्कि बेवकूफ मशीनें हैं जो जल्दी से डेटा संसाधित करने के लिए अच्छे हैं। इसलिए ज्यादातर लोग उन पर भरोसा करते हैं। कुछ (खराब) लोग malwares विकसित करते हैं जो कंप्यूटर के सही व्यवहार को बाधित करेंगे। और हम सभी जानते हैं कि वे छोटे से मध्यम संगठनों पर भयानक प्रभाव डाल सकते हैं जो अच्छी तरह से कंप्यूटर के नुकसान के लिए तैयार नहीं हैं।
एआई कंप्यूटर आधारित है इसलिए यह कंप्यूटर प्रकार के हमलों के लिए असुरक्षित है। यहाँ मेरा उदाहरण एक AI चालित कार होगी। तकनीक काम करने के लिए लगभग तैयार है। लेकिन सड़क पर अन्य लोगों पर हमला करने की कोशिश कर रही कार को बनाने वाले मैलवेयर के प्रभाव की कल्पना करें। यहां तक कि एआई के कोड तक सीधी पहुंच के बिना, यह साइड चैनलों द्वारा हमला किया जा सकता है । उदाहरण के लिए यह सिग्नल संकेतों को पढ़ने के लिए कैमरों का उपयोग करता है। लेकिन जिस तरह से मशीन लर्निंग को लागू किया जाता है, एआई सामान्य तौर पर उस दृश्य का विश्लेषण नहीं करता है जिस तरह से एक इंसान करता है। शोधकर्ताओं ने दिखाया है कि एक संकेत को इस तरह से बदलना संभव था कि एक सामान्य मानव अभी भी मूल चिन्ह देखेगा, लेकिन एक एआई एक अलग दिखाई देगा। अब कल्पना कीजिए कि संकेत सड़क प्राथमिकता का संकेत है ...
मेरा मतलब है कि भले ही एआई में कोई बुराई नहीं है, बुरे लोग इसे बुरी तरह से व्यवहार करने की कोशिश कर सकते हैं। और अधिक महत्वपूर्ण कार्यों के लिए AI (medecine, कारों, विमानों, बमों की नहीं बोलना) को उच्च जोखिम में सौंप दिया जाएगा। अलग तरह से कहा, मैं वास्तव में अपने लिए एआई से डरता नहीं हूं, लेकिन जिस तरह से इसका उपयोग मनुष्यों द्वारा किया जा सकता है।
मुझे लगता है कि सबसे वास्तविक (यानी, मौजूदा, मौजूदा एआई से संबंधित) जोखिमों में से एक दो कारणों से अनैतिक रूप से एआई पर निर्भर है।
एआई सिस्टम में शारीरिक त्रुटि उन क्षेत्रों में बेतहाशा गलत परिणाम उत्पन्न करना शुरू कर सकती है जिनमें उनका परीक्षण नहीं किया गया था क्योंकि भौतिक प्रणाली गलत मूल्य प्रदान करना शुरू कर देती है। यह कभी-कभी स्व-परीक्षण और अतिरेक द्वारा भुनाया जाता है, लेकिन फिर भी कभी-कभी मानव पर्यवेक्षण की आवश्यकता होती है।
सेल्फ लर्निंग एआई में एक सॉफ्टवेयर कमजोरी भी है - उनके वजन नेटवर्क या सांख्यिकीय प्रतिनिधित्व स्थानीय मिनिमा के पास पहुंच सकते हैं जहां वे एक गलत परिणाम के साथ फंस गए हैं।
यह सौभाग्य से अक्सर चर्चा में है, लेकिन ध्यान देने योग्य है: एआई सिस्टम के इनपुट का वर्गीकरण अक्सर पक्षपाती होता है क्योंकि प्रशिक्षण / परीक्षण डेटासेट भी पूर्वाग्रहित थे। एआई में यह परिणाम अधिक स्पष्ट उदाहरण के लिए कुछ जातीयता के लोगों को मान्यता नहीं देता है। हालांकि ऐसे कम स्पष्ट मामले हैं जो केवल कुछ खराब दुर्घटना के बाद ही खोजे जा सकते हैं, जैसे कि एआई कुछ आंकड़ों को नहीं पहचानता है और गलती से किसी कारखाने में आग लगाना, उपकरण तोड़ना या लोगों को चोट पहुंचाना है।
यदि रोबोट मानव मशीन इंटरफेस के समान है, तो डिवाइस रिमोट नियंत्रित कार की तरह ही है। जॉयस्टिक के पीछे ऑपरेटर के साथ चर्चा करना और एक इच्छापूर्ण व्यवहार के बारे में बातचीत करना संभव है। रिमोट नियंत्रित रोबोट सुरक्षित आविष्कार हैं क्योंकि उनके कार्यों का मनुष्यों पर वापस पता लगाया जा सकता है और उनकी प्रेरणा का अनुमान लगाया जा सकता है। उनका उपयोग दैनिक जीवन को बेहतर बनाने के लिए किया जा सकता है, और उनके साथ खेलना मज़ेदार है।
इसके विपरीत, कुछ रोबोट जॉयस्टिक द्वारा नियंत्रित नहीं होते हैं, लेकिन एक आंतरिक पासा जनरेटर के साथ काम कर रहे हैं। पासा खिलौना जुआ में सामाजिक भूमिका से जाना जाता है, लेकिन इसका एक गूढ़ अर्थ भी है। आमतौर पर, एक यादृच्छिक जनरेटर दृढ़ता से अराजक व्यवहार से जुड़ा होता है जो मनुष्यों के प्रभाव के बाहर अंधेरे बलों द्वारा नियंत्रित होता है। रोबोट में निर्मित एक इलेक्ट्रॉनिक पासा और लर्निंग एल्गोरिदम के साथ बेहतर बनाया गया मानव मशीन इंटरफ़ेस के विपरीत है, लेकिन यह संभावित संकटमोचक है क्योंकि बेतरतीब ढंग से नियंत्रित रोबोट उन मनुष्यों के साथ खेल खेलेंगे जिनका अनुमान नहीं लगाया जा सकता है। पासा की अगली संख्या की भविष्यवाणी करना संभव नहीं है, इसलिए रोबोट अचानक भी व्यवहार करेगा।
बेतरतीब ढंग से नियंत्रित गेम और नकारात्मक सामाजिक प्रभाव के बीच संबंध को निम्नलिखित वाक्य में समझाया गया था।
उद्धरण: “कई पारंपरिक गैर-पश्चिमी समाजों में जुआरी सफलता के लिए देवताओं से प्रार्थना कर सकते हैं और दैवीय इच्छा के संदर्भ में जीत और हार की व्याख्या कर सकते हैं। "बिंडे, प्रति। "जुआ और धर्म: सहमति और संघर्ष का इतिहास।" जुआ मुद्दों के जर्नल 20 (2007): 145-165।
मानव वर्तमान में "जिस चीज को सोचता है" के एक पारिस्थितिक-आर्थिक क्षेत्र में मौजूद है।
एआई भी एक ऐसी चीज है जो सोचता है, इसलिए यह हमारे पारिस्थितिक-आर्थिक आला पर हमला करेगा। पारिस्थितिकी और अर्थशास्त्र दोनों में, आपके आला पर कुछ और होने से निरंतर अस्तित्व के लिए एक शानदार योजना नहीं है।
कैसे मानव अस्तित्व से समझौता किया जाता है यह बहुत अराजक होने वाला है। ऐसे प्रशंसनीय तरीकों का एक समूह बनने जा रहा है जो एआई एक प्रजाति के रूप में, या यहां तक कि एक प्रमुख जीवन रूप के रूप में मानव अस्तित्व को खतरे में डाल सकता है।
मान लीजिए कि "सुपर नैतिकता" के बिना एक मजबूत एआई है, जो मानव की तुलना में निर्माण करने के लिए सस्ता है (जिसमें "शरीर" या दुनिया में हेरफेर करने का तरीका भी शामिल है), और मानव की तुलना में स्मार्ट या होशियार।
यह एक ऐसा मामला है जहां हम संसाधनों के लिए उस AI के साथ प्रतिस्पर्धा करना शुरू करते हैं। यह माइक्रोइकॉनॉमिक तराजू पर होगा (क्या हम इस समस्या को हल करने के लिए एक मानव को किराए पर लेते हैं, या एआई को खरीदने / बनाने / किराए पर लेते हैं?)। जिस दर पर AI सस्ते और / या लोगों से अधिक स्मार्ट हो जाते हैं, उसके आधार पर यह धीरे-धीरे (शायद एक समय में एक उद्योग) या बेहद तेज हो सकता है।
एक पूंजीवादी प्रतियोगिता में, जो सस्ते एआई के लिए आगे नहीं बढ़ते हैं, वे प्रतिस्पर्धा से बाहर हो जाते हैं।
अब, अल्पावधि में, यदि AI के फायदे केवल सीमांत हैं, तो उत्पादक बनने से पहले 20-वर्ष के लिए मनुष्यों को शिक्षित करने की उच्च लागत इस प्रक्रिया को धीमा कर सकती है। इस मामले में, यह एआई के बजाय रोग का निदान करने के लिए भुखमरी मजदूरी से ऊपर एक डॉक्टर को भुगतान करने के लायक हो सकता है, लेकिन यह संभवतः उनके छात्र ऋण का भुगतान करने के लायक नहीं है। इसलिए नए मानव डॉक्टर्स तेजी से प्रशिक्षित होना बंद हो जाएंगे, और मौजूदा डॉक्टर्स खराब हो जाएंगे। फिर 20-30 वर्षों में एआई पूरी तरह से नैदानिक उद्देश्यों के लिए डॉक्टरों की जगह लेगा।
यदि एआई के फायदे बड़े हैं, तो यह तेजी से होगा। मानव निदान करने के लिए डॉक्टर गरीबी स्तर की मजदूरी देने के लायक भी नहीं होंगे। जब आप गैसोलीन आधारित खेती करते हैं, तो आप मांसपेशियों पर आधारित खेती के साथ कुछ ऐसा देख सकते हैं।
पिछले औद्योगिक क्रांतियों के दौरान, यह तथ्य कि मानव जहां सोचने में सक्षम है, उसका मतलब है कि आप अन्य कार्यों को करने के लिए अधिशेष मानव श्रमिकों का पुनरुत्पादन कर सकते हैं; मैन्युफैक्चरिंग लाइन्स, सर्विस इकोनॉमी जॉब्स, कंप्यूटर प्रोग्रामिंग आदि, लेकिन इस मॉडल में, AI उस तरह की नौकरी में इंसानों की तुलना में प्रशिक्षित और निर्माण और स्मार्ट या अधिक सस्ता है।
जैसा कि इथेनॉल से प्रेरित अरब वसंत द्वारा दर्शाया गया है, फसलों और क्रॉपलैंड को मशीनों और मनुष्यों दोनों को ईंधन देने के लिए इस्तेमाल किया जा सकता है। जब मशीनें क्रॉपलैंड को उपयोगी कार्य में बदलने के मामले में अधिक कुशल होती हैं, तो आपको खाद्य चढ़ाई की कीमत दिखाई देने लगेगी। यह आम तौर पर दंगों की ओर ले जाता है, क्योंकि लोग वास्तव में मौत को भूखे रहना पसंद नहीं करते हैं और इसे रोकने के लिए सरकार को उखाड़ फेंकने के लिए अपनी जान जोखिम में डालने को तैयार हैं।
आप लोगों को रियायती भोजन और इस तरह से भोजन उपलब्ध करा सकते हैं। इसलिए जब तक यह आर्थिक रूप से अपंग नहीं होता (यानी, यदि बहुत महंगा है, तो इसका परिणाम यह हो सकता है कि आप अन्य स्थानों से बाहर हो सकते हैं, जो ऐसा नहीं करते हैं), यह केवल राजनीतिक रूप से अस्थिर है।
एक विकल्प के रूप में, अल्पावधि में, स्वामित्व वाली जाति जो तेजी से कुशल एआई-रन अर्थव्यवस्था से लाभ प्राप्त कर रही है, पुलिस या सैन्य जाति के लिए उक्त दंगों का भुगतान कर सकती है। इसके लिए आवश्यक है कि पुलिस / सेना की जातियों के जीवन स्तर में निम्न वर्ग का उच्च स्तर हो, ताकि वे निरंतर वफादारी सुनिश्चित कर सकें - आप उन्हें दंगाइयों में शामिल नहीं करना चाहते हैं।
तो आप जिन लाभ केंद्रों में AI रख सकते हैं उनमें से एक AI आधारित सैन्य और पुलिसिंग है। प्रसंस्करण दृश्य और अन्य डेटा फीड के आधार पर घातक और गैर-घातक आयुध वितरित करने वाले ड्रोन भोजन-मूल्य ट्रिगर दंगों या अन्य अस्थिरता को कम करने के लिए आवश्यक मध्यम वर्ग पुलिस / सेना की संख्या को कम कर सकते हैं। जैसा कि हमने पहले ही मान लिया है कि AI में जैविक मानव की तुलना में शरीर और प्रशिक्षण सस्ता हो सकता है, इससे आप खर्च किए गए प्रति डॉलर बल को भी बढ़ा सकते हैं।
इस बिंदु पर, हम ज्यादातर एआई रन पुलिस और सेना के बारे में बात कर रहे हैं, जिसका उपयोग मनुष्यों को एआई रन अर्थव्यवस्था को उखाड़ फेंकने के लिए किया जा रहा है और वर्तमान में लगाए जाने वाले अधिक कुशल उपयोग से उत्पादन के साधनों को जब्त करना है।
शीर्ष पर व्यवस्था रखने वाले शातिर मानव अपनी संपत्ति और शक्ति का अनुकूलन करने के लिए स्थानीय रूप से तर्कसंगत निर्णय ले रहे हैं। वे लंबे समय तक बने रह सकते हैं या नहीं; जब तक वे अपेक्षाकृत कम मात्रा में संसाधनों की निकासी करते हैं और एआई रन अर्थव्यवस्था को गड़बड़ नहीं करते हैं, तब तक उनसे छुटकारा पाने के लिए बहुत अधिक चयन दबाव नहीं होगा। दूसरी ओर, जैसा कि वे मूल्य के बिना कुछ भी योगदान दे रहे हैं, वे "शीर्ष पर" स्थिति राजनीतिक रूप से अस्थिर हैं।
इस प्रक्रिया ने एक "मजबूत" सामान्य एआई मान लिया। नैरोअर एआई इसे टुकड़ों में खींच सकता है। एक सस्ता, प्रभावी नैदानिक कंप्यूटर उदाहरण के लिए, आश्चर्यजनक रूप से कम समय में गरीबी में अधिकांश डॉक्टरों को कम कर सकता है। सेल्फ ड्राइविंग कार अर्थव्यवस्था का 5% -10% निगल सकती है। सूचना प्रौद्योगिकी पहले से ही मामूली एआई के साथ खुदरा क्षेत्र को निगल रही है।
यह कहा जाता है कि हर तकनीकी प्रगति मनुष्यों के लिए अधिक और बेहतर नौकरियों की ओर ले जाती है। और यह पिछले 300+ वर्षों से सच है।
लेकिन 1900 से पहले, यह भी सच था कि हर तकनीकी उन्नति ने घोड़ों के लिए अधिक और बेहतर नौकरियां पैदा कीं। फिर आईसीई और ऑटोमोबाइल पहुंचे, और अब बहुत कम कामकाजी घोड़े हैं; शेष घोड़े मूल रूप से मानव व्यक्तिगत सेवकों के समतुल्य हैं: "वाह, शांत, घोड़े" की नवीनता और विशाल जानवर की सवारी और नियंत्रित करने की मस्ती के लिए रखे गए हैं।
पहले से ही प्रदान किए गए कई उत्तरों के लिए, मैं छवि मॉडल के क्षेत्र में प्रतिकूल उदाहरणों के मुद्दे को सामने लाऊंगा ।
प्रतिकूल उदाहरण वे छवियां हैं, जिन्हें विशेष रूप से डिज़ाइन किए गए शोर से परेशान किया गया है जो अक्सर एक मानव पर्यवेक्षक के लिए अस्वीकार्य है, लेकिन एक मॉडल की भविष्यवाणी को दृढ़ता से बदल देता है।
उदाहरणों में शामिल:
छाती के एक्स-रे में अनुमानित निदान को प्रभावित करना
स्वायत्त वाहनों के लिए आवश्यक सड़कों के पता लगाने को प्रभावित करना ।
एआई जिसका उपयोग वास्तविक दुनिया की समस्या को हल करने के लिए किया जाता है, जो मानवता के लिए जोखिम पैदा कर सकती है और इसके लिए बिल्कुल भी संवेदना की आवश्यकता नहीं होती है, इसके लिए मानव मूर्खता की डिग्री की भी आवश्यकता होती है।
मनुष्यों के विपरीत, एक एआई को भावना, नैतिकता, या यहां तक कि लालच की बाधा के बिना सबसे तार्किक जवाब मिलेगा ... केवल तर्क। इस एआई से पूछें कि एक समस्या को कैसे हल किया जाए जो मानव (उदाहरण के लिए, जलवायु परिवर्तन) और इसका समाधान हो सकता है कि ग्रह की रक्षा के लिए मानव जाति की संपूर्णता को खत्म कर सके। जाहिर है कि इससे एआई को परिणाम देने की क्षमता देने की आवश्यकता होगी, जो मुझे मेरे पहले बिंदु पर ले जाता है, मानवीय मूर्खता।
कृत्रिम बुद्धिमत्ता हमें प्राकृतिक बुद्धिमत्ता (मनुष्यों के) के किसी भी तरीके से नुकसान पहुंचा सकती है। प्राकृतिक और कृत्रिम बुद्धिमत्ता के बीच का अंतर मिट जाएगा जब मनुष्य अपने आप को और अधिक तीव्रता से बढ़ाने लगेगा। इंटेलिजेंस अब पहचान को चिह्नित नहीं कर सकता है और यह एक असीम अधिकार बन जाएगा। जितना नुकसान होगा, मनुष्य उतनी ही सहन कर सकता है जितना कि अपनी विकसित होती आत्म-पहचान को बचाए रखना।
कुछ लोगों को एहसास है कि हमारी वैश्विक अर्थव्यवस्था को एआई माना जाना चाहिए: - पैसे का लेनदेन एक तंत्रिका जाल पर संकेत हैं। तंत्रिका जाल में नोड्स अलग-अलग निगम या निजी व्यक्ति होंगे जो पैसे का भुगतान या प्राप्त करेंगे। - यह मानव निर्मित है इसलिए कृत्रिम रूप से योग्य है
यह तंत्रिका नेटवर्क अपने कार्य में बेहतर है फिर मनुष्य: पूंजीवाद ने हमेशा मानव (योजना-अर्थव्यवस्था) द्वारा नियोजित अर्थव्यवस्था के खिलाफ जीत हासिल की है।
क्या यह तंत्रिका जाल खतरनाक है? अगर आप कॉर्पोरेट कचरे से प्रदूषित नदी में एक मछुआरे के रूप में बड़ी कमाई करते हैं, तो आप अलग हो सकते हैं।
यह AI खतरनाक कैसे हो गया? आप इसका जवाब मानव लालच के कारण दे सकते हैं। हमारी रचना स्वयं को दर्शाती है। दूसरे शब्दों में: हमने अपने तंत्रिका जाल को अच्छी तरह से व्यवहार करने के लिए प्रशिक्षित नहीं किया। सभी मनुष्यों के लिए जीवित गुणवत्ता में सुधार करने के लिए तंत्रिका जाल को प्रशिक्षित करने के बजाय, हमने इसे अमीर लोगों को अधिक अमीर बनाने के लिए प्रशिक्षित किया।
क्या इस एआई को प्रशिक्षित करना आसान नहीं होगा? शायद नहीं, हो सकता है कि कुछ एआई सिर्फ बड़ा हो तो जीवन। यह सिर्फ योग्यतम की उत्तरजीविता है।