क्या कृत्रिम बुद्धिमत्ता हैकिंग की चपेट में है?


27

पेपर द एडवांसरियल सेटिंग्स में डीप लर्निंग की सीमाएं यह पता लगाती हैं कि एक हमलावर द्वारा तंत्रिका नेटवर्क को कैसे भ्रष्ट किया जा सकता है जो उस डेटा सेट में हेरफेर कर सकता है जिसके साथ तंत्रिका नेटवर्क ट्रेन करता है। लेखक एक तंत्रिका नेटवर्क के साथ प्रयोग करते हैं, जो हस्तलिखित अंकों को पढ़ने के लिए होता है, हस्तलिखित अंकों के नमूनों को विकृत करके इसकी पढ़ने की क्षमता को कम करता है, जिसके साथ तंत्रिका नेटवर्क को प्रशिक्षित किया जाता है।

मुझे चिंता है कि दुर्भावनापूर्ण अभिनेता एआई को हैक करने की कोशिश कर सकते हैं। उदाहरण के लिए

  • स्वायत्त वाहनों को गलत तरीके से रोकने के लिए संकेत बनाम गति सीमा को रोकना।
  • चेहरे की पहचान को दरकिनार करना, जैसे कि एटीएम के लिए।
  • स्पैम फिल्टर को दरकिनार।
  • फिल्म समीक्षा, होटल इत्यादि का मूर्खतापूर्ण विश्लेषण
  • विसंगति का पता लगाने वाले इंजनों को दरकिनार करना।
  • फेकिंग वॉइस कमांड।
  • मशीन-आधारित भविष्यवाणियों को सीखने की मशीन।

क्या प्रतिकूल प्रभाव दुनिया को बाधित कर सकता है? हम इसे कैसे रोक सकते हैं?


6
विचार करें कि मानव बुद्धि हैकिंग की चपेट में है
गयुस

दिलचस्प। क्या आप "प्रतिकूल सेटिंग जोखिम मॉडल" में रुचि रखते हैं या पारंपरिक साइबर सुरक्षा जवाब के करीब हैं, लेकिन फिर भी एआई के बारे में चौकोर है? शुभकामनाएँ।
तात्त्विक प्रकाशन

जवाबों:


19

एआई दो सुरक्षा दृष्टिकोणों से असुरक्षित है जिस तरह से मैं इसे देखता हूं:

  1. मशीन पर कुछ प्रकार के कोड निष्पादन जो एआई चला रहे हैं या डेटा निकालने के लिए एकमुश्त प्रोग्रामेटिक त्रुटियों का दोहन करने की क्लासिक विधि।

  2. एआई ऑप्टिकल भ्रम के बराबर के माध्यम से छलनी डेटा के विशेष रूप के लिए जो सिस्टम से निपटने के लिए डिज़ाइन किया गया है।

पहले को किसी अन्य सॉफ्टवेयर की तरह ही कम किया जाना चाहिए। यदि कोई अन्य सॉफ़्टवेयर की तुलना में AI इस मोर्चे पर अधिक कमजोर है, तो मैं अनिश्चित हूं, मुझे लगता है कि जटिलता शायद जोखिम को थोड़ा बढ़ा देती है।

दूसरा शायद सिस्टम के सावधानीपूर्वक शोधन से सबसे अच्छा है, जैसा कि कुछ अन्य उत्तरों में उल्लेख किया गया है, लेकिन सिस्टम को अधिक संदर्भ-संवेदनशील बनाकर; कई प्रतिकूल तकनीकें निर्वात में मूल्यांकन किए जा रहे इनपुट पर निर्भर करती हैं।


1
कोड भेद्यता और उपयोग कमजोरियों के बीच विभाजन अच्छा है। हालाँकि, कोड भेद्यताएँ आमतौर पर AI में ऋणात्मक होती हैं। एआई की जटिलता डेटा में निहित है, चाहे वह नोड नेटवर्क में नोड वज़न हो या एक यादृच्छिक जंगल में पेड़। एआई को खिलाने के लिए कोड का सिर्फ एक छोटा सा हिस्सा है, और मुख्य जोखिम वहाँ इसे स्तनपान नहीं कर रहा है - एक क्लासिक बफर अतिप्रवाह जोखिम, आसानी से देर से 20 वीं सदी की तकनीकों द्वारा कम कर दिया गया।
MSalters

@ मुझे लगता है कि सामान्य निष्कर्ष निकालना कठिन है क्योंकि विभिन्न प्रकार के AI एजेंटों के बीच कोड जटिलता बहुत भिन्न हो सकती है (मुझे लगता है कि आपकी टिप्पणी तंत्रिका नेटवर्क के लिए काफी हद तक सटीक है)। इसके अलावा, यद्यपि डेटा और हेरफेर संभवतः बड़ी हमले की सतह है, यह उसी तरह के हमलों को छूट देने के लिए नासमझी होगी जिन्होंने अतीत में समझौता किए गए छवि फ़ाइलों के माध्यम से दूरस्थ कोड निष्पादन की अनुमति दी है जो छवि देखने के अनुप्रयोगों में खामियों का फायदा उठाती है। वेक्टर वह डेटा है जिसमें पास किया जा रहा है, लेकिन व्यवहार अभी भी कोड भेद्यता शीर्षक के अंतर्गत आता है, मुझे लगता है।
क्रिस्टोफर ग्रिफिथ

7

प्रोग्रामर बनाम प्रोग्रामर

यह एक "अनन्तता युद्ध" है: प्रोग्रामर बनाम प्रोग्रामर। सभी चीजें हैक करने योग्य हो सकती हैं। रोकथाम सुरक्षा में पेशेवर प्रभारी और प्रोग्रामर के प्रोग्रामर के ज्ञान के स्तर से जुड़ा हुआ है।

उदाहरण सेंटीमेंट एनालिसिस द्वारा उत्पन्न मेट्रिक्स को गड़बड़ाने की कोशिश करने वाले उपयोगकर्ता की पहचान करने के कई तरीके हैं, लेकिन उन चरणों को भी दरकिनार करने के तरीके हैं। यह एक बहुत उबाऊ लड़ाई है।

एजेंट बनाम एजेंट

एक दिलचस्प बात यह है कि @DukeZhou ने इस युद्ध का विकास किया, जिसमें दो कृत्रिम बुद्धिमत्ता (एजेंट) शामिल हैं। उस मामले में, लड़ाई सबसे अधिक जानकारों में से एक है। सबसे अच्छा प्रशिक्षित मॉडल कौन सा है, आप जानते हैं?

हालांकि, भेद्यता के मुद्दे में पूर्णता प्राप्त करने के लिए, कृत्रिम बुद्धि या कृत्रिम सुपर इंटेलिजेंस मानव को दरकिनार करने की क्षमता को पार करता है। यह ऐसा है जैसे कि इस दिन के लिए सभी हैक्स का ज्ञान पहले से ही इस एजेंट के दिमाग में मौजूद था और उसने अपने सिस्टम को दरकिनार करने और सुरक्षा विकसित करने के नए तरीके विकसित करना शुरू कर दिया। जटिल, सही?

मेरा मानना ​​है कि एक एआई होना मुश्किल है जो सोचता है: "क्या मानव अपने चेहरे को पहचानने के बजाय एक तस्वीर का उपयोग करेगा?"

हम इसे कैसे रोक सकते हैं

हमेशा मशीन की देखरेख करने वाला मानव होता है, और फिर भी यह 100% प्रभावी नहीं होगा। यह इस संभावना की अवहेलना करता है कि एक एजेंट अकेले अपने मॉडल में सुधार कर सकता है।

निष्कर्ष

इसलिए मुझे लगता है कि परिदृश्य इस तरह से काम करता है: एक प्रोग्रामर एक एआई के सत्यापन को दरकिनार करने की कोशिश करता है और आईए डेवलपर लॉग्स और परीक्षणों के माध्यम से ज्ञान प्राप्त करता है और असफलता की संभावना को कम करने के लिए एक स्मार्ट और सुरक्षित मॉडल बनाने की कोशिश करता है।


3
बहुत बढ़िया जवाब। (imo, स्वीकृत उत्तर होना चाहिए, लेकिन आपको कुछ समर्थन या लिंक प्रदान करने की आवश्यकता है।) चाहे आपका तर्क सही हो, हालांकि मुझे लगता है कि यह प्रोग्रामर बनाम प्रोग्रामर से आगे बढ़कर एजेंट बनाम एजेंट तक पहुंचना शुरू हो जाएगा क्योंकि नए एल्गोरिदम में वृद्धि होगी परिष्कार, और मानव संकेत के बिना इन रणनीतियों का कार्य।
DukeZhou

1
अपडेट किया गया! अच्छी बात @DukeZhou
गुइलहर्मे IA

6

हम इसे कैसे रोक सकते हैं?

AI सत्यापन के बारे में कई कार्य हैं। स्वचालित सत्यापनकर्ता तंत्रिका नेटवर्क की मजबूती गुणों को साबित कर सकते हैं। इसका अर्थ है कि यदि NN का इनपुट X अधिक नहीं है, तो दी गई सीमा ε (कुछ मीट्रिक, उदाहरण L2 में) पर, तो NN उस पर समान उत्तर देता है।

ऐसे सत्यापनकर्ता द्वारा किया जाता है:

यह दृष्टिकोण तंत्रिका नेटवर्क की मजबूती गुणों की जांच करने में मदद कर सकता है। अगला कदम इस तरह के तंत्रिका नेटवर्क का निर्माण करना है, जिसमें मजबूती की आवश्यकता है। ऊपर दिए गए कुछ कागजात में यह भी है कि इसे कैसे किया जाए।

तंत्रिका नेटवर्क की मजबूती में सुधार करने के लिए विभिन्न तकनीकें हैं:

कम से कम पिछले एक एनएन को अधिक मजबूत बना सकता है। अधिक साहित्य यहां पाया जा सकता है


2
यह एक असंभव दावे की तरह लगता है ... जब तक कि यह सामान्य इनपुट एक्स के बजाय कुछ विशेष इनपुट एक्स के बारे में नहीं है? किस मामले में, यह हैकैबिलिटी के बारे में कुछ नहीं के बगल में कहता है, क्योंकि प्रशिक्षण में उन लोगों के इनपुट को सीमित करने की आवश्यकता नहीं है?
मेहरदाद

1
@ मेहरदाद: यह संभवत: एक संभाव्य अर्थ में साध्य है यदि इनपुट स्थान पर्याप्त रूप से संरचित है कि आप इसे बेतरतीब ढंग से नमूना कर सकते हैं। यह कहना है, आप संभवतः स्थापित कर सकते हैं कि संभव इनपुट के 95% के लिए, 95% गड़बड़ी you वर्ग लेबल को प्रभावित नहीं करती है। यह स्थापित करने के बराबर है कि इनपुट स्पेस में आउटपुट कक्षाओं के बीच की सीमा चिकनी है, या कि इनपुट स्पेस का सबसे बड़ा हिस्सा क्लास बॉर्डर के पास नहीं है। जाहिर है कि इनपुट स्पेस का कुछ हिस्सा क्लास बॉर्डर के पास होना चाहिए।
MSalters

मुझे यकीन नहीं है कि यह पेपर में वर्णित "प्रतिकूल" मामले में लागू होगा: वहाँ, (IIRC) एक बैक-प्रचारित ढाल पूरी तस्वीर में जोड़ा जाता है, इसलिए संपूर्ण इनपुट में परिवर्तन काफी बड़ा हो सकता है - भले ही प्रत्येक व्यक्ति पिक्सेल के लिए परिवर्तन मुश्किल से ध्यान देने योग्य है।
निकी

@ दलाल: मुझे लगता है, हाँ। लेकिन तब यह है कि यह एक निष्पक्ष बिट अवमूल्यन करना है जब तक आप वास्तव में चित्रों है कि एक वर्ग सीमा पर कर रहे हैं दिखा सकते हैं वास्तव में करना चाहिए लगता है हो सकता है एक वर्ग की सीमा पर ...
Mehrdad

वाक्य "अगला कदम इस तरह के एक तंत्रिका नेटवर्क का निर्माण करना है, जिसके लिए आवश्यक मजबूती है" अनुसंधान के तहत है। सामान्य तौर पर, एनएन गैर-मजबूतता समस्या से छुटकारा पाना बहुत कठिन है। लेकिन यह प्रतिकूल प्रशिक्षण द्वारा मजबूती को बढ़ाने के लिए संभव है (उदाहरण के लिए देखें । ए । कुराकिन एट अल।, आईसीएलआर 2017 ), रक्षात्मक आसवन (उदाहरण के लिए एन। पैपरनोट एट अल।, एसएसपी 2016 ), एमएमटीएस डिफेंस ( मौड्री एट अल , आईसीएलआर 2018)। )। कम से कम पिछले एक एनएन को अधिक मजबूत बना सकता है।
इल्या पालचेव

4

मेरा मानना ​​है कि यह कोई भी प्रणाली सुरक्षित नहीं है, हालांकि मुझे यकीन नहीं है कि मैं 20-30 वर्षों के एआई के विकास / विकास के बाद भी यह कह सकता हूं। वैसे भी, ऐसे लेख हैं जो मनुष्यों को एआई (कंप्यूटर विजन) को बेवकूफ बनाते हुए दिखाए गए हैं।

https://www.theverge.com/2018/1/3/16844842/ai-computer-vision-trick-adversarial-patches-google

https://spectrum.ieee.org/cars-that-think/transportation/sensors/slight-street-sign-modifications-can-fool-machine-learning-algorithms


4

क्या हैकिंग के लिए आर्टिफिशियल इंटेलिजेंस कमजोर है?

एक पल के लिए अपने प्रश्न को उल्टा करें और सोचें:

किसी अन्य प्रकार के सॉफ़्टवेयर की तुलना में हैकिंग के जोखिम पर AI क्या कम करेगा?

दिन के अंत में, सॉफ्टवेयर सॉफ्टवेयर है और हमेशा बग और सुरक्षा मुद्दे होंगे। गैर-एआई सॉफ़्टवेयर के लिए एआईएस सभी समस्याओं के लिए जोखिम में हैं, एआई इसे किसी प्रकार की प्रतिरक्षा प्रदान नहीं करता है।

एआई-विशिष्ट छेड़छाड़ के लिए, एआई को गलत जानकारी दिए जाने का खतरा है। अधिकांश कार्यक्रमों के विपरीत, AI की कार्यक्षमता उसके द्वारा खपत किए गए डेटा से निर्धारित होती है।

एक वास्तविक दुनिया उदाहरण के लिए, कुछ साल पहले माइक्रोसॉफ्ट ने एआई चैटबोट बनाया, जिसे टीआई कहा जाता है। ट्विटर के लोगों को यह कहने में 24 घंटे से भी कम का समय लगा कि "हम एक दीवार बनाने जा रहे हैं, और मेक्सिको इसके लिए भुगतान करने जा रहा है":

हम एक दीवार बनाने जा रहे हैं, और मेक्सिको इसके लिए भुगतान करने जा रहा है

(नीचे दिए गए लिंक लेख से ली गई छवि, मेरा दावा है कि इसका कोई श्रेय नहीं है।)

और यह सिर्फ हिमशैल के टिप है।

Tay के बारे में कुछ लेख:

अब कल्पना कीजिए कि एक चैट बॉट नहीं था, कल्पना कीजिए कि भविष्य से एआई का एक महत्वपूर्ण टुकड़ा था जहां एआई चीजों के प्रभारी हैं जैसे कार के रहने वालों को नहीं मारना (यानी सेल्फ ड्राइविंग कार) या मरीज को नहीं मारना ऑपरेटिंग टेबल (अर्थात किसी प्रकार की चिकित्सा सहायता उपकरण)।

दी, उम्मीद है कि इस तरह के खतरों के खिलाफ एआई बेहतर होगा, लेकिन किसी को भी गलत तरीके से बिना किसी सूचना के ऐसी एआई जनता को खिलाने का तरीका मिल गया (आखिरकार, सबसे अच्छा हैकर्स कोई निशान नहीं छोड़ते हैं), जो वास्तव में मतलब हो सकता है जीवन और मृत्यु के बीच का अंतर।

सेल्फ-ड्राइविंग कार के उदाहरण का उपयोग करते हुए, कल्पना करें कि यदि गलत डेटा कार को यह सोच सकता है कि मोटरवे पर एक आपातकालीन स्टॉप करने की आवश्यकता है। मेडिकल एआई के लिए आवेदनों में से एक ईआर में जीवन-या-मौत के फैसले हैं, कल्पना करें कि क्या कोई हैकर गलत निर्णय के पक्ष में तराजू को टिप कर सकता है।

हम इसे कैसे रोक सकते हैं?

अंततः जोखिम का पैमाना इस बात पर निर्भर करता है कि मनुष्य AI पर कितना निर्भर हो जाता है। उदाहरण के लिए, यदि मनुष्य ने AI का निर्णय लिया और कभी इस पर सवाल नहीं उठाया, तो वे सभी प्रकार के हेरफेर करने के लिए खुद को खोल रहे थे। हालांकि, अगर वे एआई के विश्लेषण को पहेली के सिर्फ एक हिस्से के रूप में उपयोग करते हैं, तो एआई गलत होने पर हाजिर होना आसान होगा, यह आकस्मिक या दुर्भावनापूर्ण माध्यम से हो सकता है।

एक चिकित्सा निर्णय निर्माता के मामले में, एआई पर विश्वास न करें, शारीरिक परीक्षण करें और कुछ मानवीय राय भी प्राप्त करें। यदि दो डॉक्टर एआई से असहमत हैं, तो एआई के निदान को बाहर निकाल दें।

कार के मामले में, एक संभावना के लिए कई निरर्थक प्रणालियां होनी चाहिए जो अनिवार्य रूप से 'वोट' देना चाहिए कि क्या करना है। यदि अलग-अलग प्रणालियों पर एक कार में कई एआई होते हैं जो मतदान करना चाहिए जिसके बारे में कार्रवाई करना है, तो एक हैकर को नियंत्रण पाने या गतिरोध पैदा करने के लिए केवल एक एआई से अधिक बाहर निकालना होगा। महत्वपूर्ण रूप से, यदि AI अलग-अलग प्रणालियों पर चलता है, तो एक पर इस्तेमाल होने वाला समान शोषण दूसरे पर नहीं किया जा सकता है, जिससे हैकर का कार्यभार बढ़ जाता है।


1
मुझे कई अलग-अलग AI सिस्टम होने का विचार पसंद है जिन्हें एक शमन तकनीक के रूप में समझौते तक पहुंचना है। हालाँकि तब आपको आश्वासन दिया जाएगा कि जो भी वोटिंग मैकेनिज़्म उन्होंने इस्तेमाल किया है उसमें फ़ेक फ़ैसला शामिल नहीं हो सकता।
क्रिस्टोफर ग्रिफिथ

@ChristopherGriffith सच है, यह एक जोखिम है। कार के मामले में, सिस्टम को डिज़ाइन करने का सबसे अच्छा तरीका है कि सिस्टम को डिजाइन करने के लिए एक हमलावर को भौतिक उपयोग की आवश्यकता होगी और इसे उस तक पहुंचने के लिए कठिन बनाना होगा ताकि उस तक पहुंचने के लिए व्यक्ति को कार में ब्रेक लगाना पड़े। एक प्रणाली को ऑफ़लाइन रखना आमतौर पर एक अच्छा हैकिंग प्रतिवाद है, हालांकि हमेशा आदर्श नहीं होता है।
छप्पर

1

मैं आकिओ के साथ कहता हूं कि कोई भी प्रणाली पूरी तरह से सुरक्षित नहीं है, लेकिन दूर ले जाने वाली AI सिस्टम पर हमलों की संभावना कम होती है जब पुराने सिस्टम के साथ तुलना करने के कारण लगातार सुधार होता है।

जैसे-जैसे समय बीतता जाएगा, वैसे-वैसे नए विचारों को लाने वाले क्षेत्र में और लोग आएंगे और हार्डवेयर में सुधार होगा ताकि वे "मजबूत एआई" हों।


1

क्या कृत्रिम बुद्धिमत्ता हैकिंग की चपेट में है?

संकेत; यदि आप कहते हैं कि AI कमजोर है, तो मैं इस तरह के बयान से यहाँ आपसे असहमत हूँ। आर्टिफिशियल इंटेलिजेंस को तीन श्रेणियों में विभाजित किया गया है और न ही चरण जिन्हें हम माना जाता है।

  • कृत्रिम संकीर्ण बुद्धि

  • कृत्रिम सामान्य बुद्धि

  • कृत्रिम बुद्धि

इसलिए, आपके कथन के अनुसार; "मुझे चिंता है कि दुर्भावनापूर्ण अभिनेता एआई को हैक करने की कोशिश कर सकते हैं ....."

आपके संदेश निकाय में उदाहरणों द्वारा दिए गए, हम कृत्रिम संकीर्ण बुद्धि के स्तर पर हैं, जहां मानव हैकर इस तरह के अनुप्रयोगों पर आक्रमण करने के लिए अपने दुर्भावनापूर्ण कोड को इस स्तर पर मोड़ सकता है। फिर भी, अगर हम सीधे आर्टिफिशियल के अंतिम स्तर तक कूदते हैं बुद्धि; फिर हर तरह से, एक इंसान न तो आक्रमण कर सकता है और न ही किसी सुपर इंटेलिजेंट सॉफ्टवेयर प्रोग्राम या हाई टेक सुपर इंटेलिजेंट एजेंट को हैक कर सकता है। उदाहरण के लिए; एक मानव हैकर, एक समय में एक काम करता है, एक आर्टिफिशियल इंटेलिजेंस को रोकने के लिए कुछ भी नहीं है और अपना ध्यान केंद्रित करने और एक साथ बहुत सारे कर्मचारी करने के लिए, यह एक अनुमान लगाने के लिए मुश्किल है एक मन जो सटीक रूप से काम करता है

आपकी जानकारी के लिए

मीडिया द्वारा एआई के बारे में आम तौर पर कहे जाने वाले कदमों को मत लीजिए, क्योंकि वे नहीं जानते कि बड़ी बात यह होगी कि नई प्रजातियां जो मनुष्यों को टक्कर देती हैं

बस एक नए समाज में रहने की कल्पना कीजिए जो उच्च तकनीक है। साइबर भव्य चुनौती की जाँच करें

यदि आप उस घटना को याद करते हैं, तो क्षमा करें।


मैं कल्पना करूँगा कि कृत्रिम रूप से सुपर इंटेलिजेंट क्रिएशन वाली दुनिया में, अभी भी अत्यधिक विशिष्ट उपकरणों का उपयोग करके इन प्रणालियों को हैक करने के तरीके होंगे जो विशिष्ट कार्यों में सामान्यीकृत AI सिस्टम को बेहतर बना सकते हैं।
क्रोव 2

1

किसी भी प्रकार की इंटेलिजेंस हैकिंग की चपेट में है, चाहे डीएनए आधारित हो या कृत्रिम। सबसे पहले, हैकिंग को परिभाषित करते हैं। इस संदर्भ में, हैकिंग विशिष्ट छोरों को प्राप्त करने के लिए कमजोरियों का शोषण है जिसमें स्थिति, वित्तीय लाभ, व्यवसाय या सरकार का विघटन शामिल हो सकता है, सूचना जो जबरन वसूली के लिए इस्तेमाल की जा सकती है, एक व्यापार सौदे या चुनाव में ऊपरी हाथ, या कुछ अन्य रूप नियंत्रण या हेरफेर।

यहां मस्तिष्क हैकिंग रणनीतियों और उनके सामान्य उद्देश्यों के उदाहरण हैं। इनमें से प्रत्येक में एक डिजिटल प्रणाली समतुल्य है।

  • सरकारी प्रचार - पूर्वानुमेय अनुपालन
  • घोटाले - पैसे
  • स्पूफिंग - हास्य सार्वजनिक प्रतिक्रिया
  • रोल प्लेइंग - एक्सेस हासिल करने या हेरफेर करने के लिए विश्वास हासिल करें
  • दर्द केंद्र - बढ़ी हुई आय के लिए शोषण की लत

कुछ इस बात से चिंतित हैं कि क्या विलक्षणता कहा जाता है, जहां बुद्धिमान सॉफ़्टवेयर संस्थाएं अपने स्वयं के लाभ प्राप्त करने के लिए मनुष्यों और उनकी सामाजिक संरचनाओं को हैक करने में सक्षम हो सकती हैं। मानव अन्य मनुष्यों के बुद्धिमान एजेंटों को हैक कर सकता है यह एक और स्पष्ट संभावना है। मुझे नहीं लगता कि प्रशिक्षण डेटा हमले का एकमात्र बिंदु है।

  • पैरामीटर मैट्रिसेस को एक तरह से अधिलेखित किया जा सकता है, जिसका पता लगाना मुश्किल है।
  • सुदृढीकरण संकेतों के साथ छेड़छाड़ की जा सकती है।
  • इनपुट क्रमपरिवर्तन में त्रुटि की ज्ञात जेब का फायदा उठाया जा सकता है।
  • डिजिटल सिस्टम के नियतात्मक स्वरूप को अन्य गहन शिक्षार्थियों द्वारा प्रशिक्षित प्रणाली द्वारा डुप्लिकेट किया जा सकता है और उन्हें नेटवर्क पर निष्पादित करने से पहले लाइन से भेद्यता के बिंदुओं की तलाश की जा सकती है।

प्रश्न में सूचीबद्ध संभावनाएं विचार के योग्य हैं, लेकिन यह मेरी सूची का संस्करण है।

  • एवी खराबी से हत्या या फार्मेसियों या अस्पतालों में पहचान प्रणाली को खराब करना
  • एक प्राप्तकर्ता को भेजे गए उत्पाद की बड़ी मात्रा का मोड़, जो उनके लिए भुगतान नहीं करता था
  • व्यक्तियों के विशिष्ट समूहों को हाशिए पर रखकर सामाजिक नरसंहार

इसे रोकने का एकमात्र तरीका वैश्विक विलुप्त होने की घटना की प्रतीक्षा करना है, लेकिन इसे कम करने के तरीके भी हो सकते हैं। जिस तरह यूनिक्स प्रणालियों में कमजोरियों को खोजने के लिए कार्यक्रम साटन को लिखा गया था, अन्य बुद्धिमान प्रणालियों में कमजोरियों को खोजने के लिए बुद्धिमान प्रणालियों को तैयार किया जा सकता है। बेशक, जिस तरह प्रोग्रामिंग मॉडल और पारंपरिक सूचना प्रणाली को सुरक्षा को ध्यान में रखकर डिजाइन किया जा सकता है, कमजोरियों को पहले दिन से काफी हद तक कम किया जा सकता है, एआई सिस्टम को उस उद्देश्य को ध्यान में रखकर बनाया जा सकता है।

यदि आप किसी भी सिस्टम के सूचना पथ का अनुसरण करते हैं और रास्ते में किसी भी बिंदु पर सिग्नल को पढ़ने या लिखने के तरीकों पर विचार करते हैं, तो आप पहुंच के उन बिंदुओं के खिलाफ पहले से ही पहरा दे सकते हैं। स्पष्ट रूप से, प्रशिक्षण के लिए उपयोग करने के लिए डेटा प्राप्त करते समय ध्यान रखना इस प्रश्न में वर्णित मामले में महत्वपूर्ण है, और सूचना मार्ग के साथ उचित एन्क्रिप्शन की आवश्यकता है, यह सुनिश्चित करने के साथ कि अनधिकृत कर्मियों को कोई भौतिक पहुंच नहीं दी जाती है, लेकिन मैं उपायों के बीच लड़ाई करता हूं इन चिंताओं और अवसरों से उत्पन्न होने वाले प्रतिवाद।


0

एआई को हैक करने के कई तरीके हैं। जब मैं बच्चा था तो मुझे लगा कि शतरंज के कंप्यूटर को कैसे हराया जाए। मैंने हमेशा एक ही पैटर्न का पालन किया, एक बार जब आप सीख जाते हैं तो आप इसका फायदा उठा सकते हैं। दुनिया का सबसे अच्छा हैकर एक 4 साल का है जो चाहता है कि वह कुछ अलग चीजें आजमाए जब तक वह अपने माता-पिता में पैटर्न स्थापित नहीं करता। वैसे भी, एअर इंडिया के पैटर्न के बारे में जानने के लिए एआई प्राप्त करें और दिए गए संयोजन से आप परिणाम का पता लगा सकते हैं। कोड में या तो उद्देश्य या संयोग से सिर्फ सादे दोष या पीछे का दरवाजा है। संभावना यह भी है कि एआई खुद को हैक कर लेगा। इसे दुर्व्यवहार कहा जाता है, छोटे बच्चे को फिर से याद करें ...

BTW का सरल तरीका यह है कि AI हमेशा सुरक्षित रहे ... कुछ लोग भूल जाते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.