क्या हैकिंग के लिए आर्टिफिशियल इंटेलिजेंस कमजोर है?
एक पल के लिए अपने प्रश्न को उल्टा करें और सोचें:
किसी अन्य प्रकार के सॉफ़्टवेयर की तुलना में हैकिंग के जोखिम पर AI क्या कम करेगा?
दिन के अंत में, सॉफ्टवेयर सॉफ्टवेयर है और हमेशा बग और सुरक्षा मुद्दे होंगे। गैर-एआई सॉफ़्टवेयर के लिए एआईएस सभी समस्याओं के लिए जोखिम में हैं, एआई इसे किसी प्रकार की प्रतिरक्षा प्रदान नहीं करता है।
एआई-विशिष्ट छेड़छाड़ के लिए, एआई को गलत जानकारी दिए जाने का खतरा है। अधिकांश कार्यक्रमों के विपरीत, AI की कार्यक्षमता उसके द्वारा खपत किए गए डेटा से निर्धारित होती है।
एक वास्तविक दुनिया उदाहरण के लिए, कुछ साल पहले माइक्रोसॉफ्ट ने एआई चैटबोट बनाया, जिसे टीआई कहा जाता है। ट्विटर के लोगों को यह कहने में 24 घंटे से भी कम का समय लगा कि "हम एक दीवार बनाने जा रहे हैं, और मेक्सिको इसके लिए भुगतान करने जा रहा है":
(नीचे दिए गए लिंक लेख से ली गई छवि, मेरा दावा है कि इसका कोई श्रेय नहीं है।)
और यह सिर्फ हिमशैल के टिप है।
Tay के बारे में कुछ लेख:
अब कल्पना कीजिए कि एक चैट बॉट नहीं था, कल्पना कीजिए कि भविष्य से एआई का एक महत्वपूर्ण टुकड़ा था जहां एआई चीजों के प्रभारी हैं जैसे कार के रहने वालों को नहीं मारना (यानी सेल्फ ड्राइविंग कार) या मरीज को नहीं मारना ऑपरेटिंग टेबल (अर्थात किसी प्रकार की चिकित्सा सहायता उपकरण)।
दी, उम्मीद है कि इस तरह के खतरों के खिलाफ एआई बेहतर होगा, लेकिन किसी को भी गलत तरीके से बिना किसी सूचना के ऐसी एआई जनता को खिलाने का तरीका मिल गया (आखिरकार, सबसे अच्छा हैकर्स कोई निशान नहीं छोड़ते हैं), जो वास्तव में मतलब हो सकता है जीवन और मृत्यु के बीच का अंतर।
सेल्फ-ड्राइविंग कार के उदाहरण का उपयोग करते हुए, कल्पना करें कि यदि गलत डेटा कार को यह सोच सकता है कि मोटरवे पर एक आपातकालीन स्टॉप करने की आवश्यकता है। मेडिकल एआई के लिए आवेदनों में से एक ईआर में जीवन-या-मौत के फैसले हैं, कल्पना करें कि क्या कोई हैकर गलत निर्णय के पक्ष में तराजू को टिप कर सकता है।
हम इसे कैसे रोक सकते हैं?
अंततः जोखिम का पैमाना इस बात पर निर्भर करता है कि मनुष्य AI पर कितना निर्भर हो जाता है। उदाहरण के लिए, यदि मनुष्य ने AI का निर्णय लिया और कभी इस पर सवाल नहीं उठाया, तो वे सभी प्रकार के हेरफेर करने के लिए खुद को खोल रहे थे। हालांकि, अगर वे एआई के विश्लेषण को पहेली के सिर्फ एक हिस्से के रूप में उपयोग करते हैं, तो एआई गलत होने पर हाजिर होना आसान होगा, यह आकस्मिक या दुर्भावनापूर्ण माध्यम से हो सकता है।
एक चिकित्सा निर्णय निर्माता के मामले में, एआई पर विश्वास न करें, शारीरिक परीक्षण करें और कुछ मानवीय राय भी प्राप्त करें। यदि दो डॉक्टर एआई से असहमत हैं, तो एआई के निदान को बाहर निकाल दें।
कार के मामले में, एक संभावना के लिए कई निरर्थक प्रणालियां होनी चाहिए जो अनिवार्य रूप से 'वोट' देना चाहिए कि क्या करना है। यदि अलग-अलग प्रणालियों पर एक कार में कई एआई होते हैं जो मतदान करना चाहिए जिसके बारे में कार्रवाई करना है, तो एक हैकर को नियंत्रण पाने या गतिरोध पैदा करने के लिए केवल एक एआई से अधिक बाहर निकालना होगा। महत्वपूर्ण रूप से, यदि AI अलग-अलग प्रणालियों पर चलता है, तो एक पर इस्तेमाल होने वाला समान शोषण दूसरे पर नहीं किया जा सकता है, जिससे हैकर का कार्यभार बढ़ जाता है।