कृत्रिम बुद्धि हमें कैसे नुकसान पहुंचा सकती है?


50

हम अक्सर सुनते हैं कि कृत्रिम बुद्धि मनुष्यों को नुकसान पहुंचा सकती है या मार भी सकती है, इसलिए यह खतरनाक साबित हो सकता है।

कृत्रिम बुद्धि हमें कैसे नुकसान पहुंचा सकती है?


6
यह थोड़ा व्यापक है, क्योंकि कई कारण और परिदृश्य सुझाए गए हैं जिनमें एआई खतरनाक हो सकता है। उदाहरण के लिए जैसा कि दत्ता ने सुझाव दिया है, मनुष्य बुद्धिमान हथियार प्रणालियों को डिजाइन कर सकते हैं जो तय करते हैं कि लक्ष्य क्या है, और यह एक वास्तविक चिंता है क्योंकि संकीर्ण एआई का उपयोग करना पहले से ही संभव है। शायद उन विशिष्ट आशंकाओं को और अधिक संदर्भ दें जिन्हें आप समझना चाहते हैं, जो आपने पढ़ी गई विशिष्ट चिंता को उद्धृत या लिंक करके (कृपया संपादन संपादित करें )।
नील स्लेटर

4
@NeilSlater हाँ, यह बहुत व्यापक हो सकता है, लेकिन मुझे लगता है कि यह उत्तर ai.stackexchange.com/a/15462/2444 कुछ प्रशंसनीय कारण प्रदान करता है। मैंने संभवतः गलत धारणा को दूर करने के लिए प्रश्न संपादित किया।
nbro

2
क्या यह सवाल विशेष रूप से "सुपरिन्टिलेजेंस" या एआई के बारे में है? (उदाहरण के लिए, यदि काल्पनिक सुपरिंटगेलेंस, तो काल्पनिक " कंट्रोल प्रॉब्लम " एक मुद्दा है। हालांकि, समकालीन स्वचालित हथियार सिस्टम न तो
सुपरिंटिजेंट

@ ड्यूकज़ो ओपी ने मूल रूप से और स्पष्ट रूप से अधीक्षण का उल्लेख नहीं किया था, लेकिन मुझे लगता है कि वह ऐसी किसी भी चीज़ का उल्लेख कर रहे थे जिसे एआई माना जा सकता है, जिसमें एक एसआई भी शामिल है।
नबंर

3
पहले पूछें कि सामान्य बुद्धि आपको कैसे नुकसान पहुंचा सकती है? जवाब फिर वही है।
जे ...

जवाबों:


46

tl; डॉ

ऐसे कई वैध कारण हैं कि लोग एआई से डर सकते हैं (या बेहतर रूप से चिंतित हैं ), सभी में रोबोट और एपोकैलिक परिदृश्य शामिल नहीं हैं।

इन चिंताओं का बेहतर वर्णन करने के लिए, मैं उन्हें तीन श्रेणियों में विभाजित करने का प्रयास करूँगा।

होश में एअर इंडिया

यह AI का प्रकार है जिससे आपका प्रश्न संदर्भित होता है। एक सुपर-बुद्धिमान सचेत एआई जो मानवता को नष्ट / गुलाम करेगा। यह ज्यादातर विज्ञान-कथा द्वारा हमारे पास लाया जाता है। कुछ उल्लेखनीय हॉलीवुड उदाहरण "टर्मिनेटर" , "द मैट्रिक्स" , "एज ऑफ अल्ट्रॉन" हैं । सबसे प्रभावशाली उपन्यास इसाक असिमोव द्वारा लिखे गए थे और उन्हें "रोबोट श्रृंखला" के रूप में जाना जाता है (जिसमें "आई, रोबोट" शामिल है , जिसे एक फिल्म के रूप में भी अनुकूलित किया गया था)।

इन कार्यों में से अधिकांश के तहत मूल आधार यह है कि एआई एक ऐसे बिंदु पर विकसित होगा जहां यह सचेत हो जाएगा और बुद्धि में मनुष्यों से आगे निकल जाएगा। जबकि हॉलीवुड फिल्में मुख्य रूप से रोबोट और उनके और मनुष्यों के बीच लड़ाई पर ध्यान केंद्रित करती हैं, वास्तविक एआई (यानी "मस्तिष्क" उन्हें नियंत्रित करने के लिए) पर पर्याप्त जोर नहीं दिया जाता है। एक साइड नोट के रूप में, कथा के कारण, इस AI को आमतौर पर सब कुछ नियंत्रित करने वाले सुपर कंप्यूटर के रूप में चित्रित किया जाता है (ताकि नायक का एक विशिष्ट लक्ष्य हो)। "अस्पष्ट बुद्धि" (जो मुझे लगता है कि अधिक यथार्थवादी है) पर पर्याप्त खोज नहीं की गई है।

वास्तविक दुनिया में, AI विशिष्ट कार्यों को हल करने पर केंद्रित है! एक एआई एजेंट जो विभिन्न डोमेन से समस्याओं को हल करने में सक्षम है (जैसे भाषण को समझना और छवियों को संसाधित करना और ड्राइविंग और ... - जैसे मनुष्य हैं) को जनरल आर्टिफिशियल इंटेलिजेंस के रूप में संदर्भित किया जाता है और एआई को "सोचने" और बनने में सक्षम होने के लिए आवश्यक है। होश में।

वास्तविक रूप से, हम जनरल आर्टिफिशियल इंटेलिजेंस से एक अच्छा तरीका है! कहा जा रहा है कि भविष्य में इसे हासिल नहीं किया जा सकता है, इस पर कोई सबूत नहीं है। इसलिए वर्तमान में, यहां तक ​​कि अगर हम अभी भी एआई की प्रारंभिक अवस्था में हैं, तो हमारे पास यह मानने का कोई कारण नहीं है कि एआई उस बिंदु पर विकसित नहीं होगा जहां यह मनुष्यों की तुलना में अधिक बुद्धिमान है।

दुर्भावनापूर्ण इरादे से एआई का उपयोग करना

भले ही दुनिया पर विजय प्राप्त करने वाला एक एआई ऐसा करने से एक लंबा रास्ता तय करता है , आज एआई के साथ संबंध होने के कई कारण हैं , जिसमें रोबोट शामिल नहीं हैं! दूसरी श्रेणी जिस पर मैं थोड़ा और ध्यान देना चाहता हूं वह है आज के एआई के कई दुर्भावनापूर्ण उपयोग।

मैं केवल AI अनुप्रयोगों पर ध्यान केंद्रित करूँगा जो आज उपलब्ध हैं । AI के कुछ उदाहरण जिनका उपयोग दुर्भावनापूर्ण इरादे से किया जा सकता है:

  • डीपफेक : किसी को किसी व्यक्ति को किसी अन्य व्यक्ति के वीडियो पर चेहरा दिखाने की तकनीक। इसने हाल ही में सेलिब्रिटी पोर्न के साथ लोकप्रियता हासिल की है और इसका उपयोग नकली समाचार और झांसे उत्पन्न करने के लिए किया जा सकता है। स्रोत: 1 , 2 , 3

  • बड़े पैमाने पर निगरानी प्रणालियों और चेहरे की पहचान सॉफ्टवेयर के उपयोग से प्रति सेकंड लाखों चेहरे पहचानने में सक्षम , AI का उपयोग बड़े पैमाने पर निगरानी के लिए किया जा सकता है। भले ही जब हम सामूहिक निगरानी के बारे में सोचते हैं तो हम चीन के बारे में सोचते हैं, लंदन , अटलांटा और बर्लिन जैसे कई पश्चिमी शहर दुनिया के सबसे अधिक सर्वेक्षण वाले शहरों में से हैं । चीन ने सामाजिक ऋण प्रणाली , नागरिकों के लिए एक मूल्यांकन प्रणाली को अपनाते हुए एक कदम आगे बढ़ाया है जो लगता है कि जॉर्ज ऑरवेल के 1984 के पन्नों से सीधे लिया गया है।

  • सोशल मीडिया के माध्यम से लोगों को प्रभावित कर रहा है । लक्षित विपणन के लक्ष्य के साथ उपयोगकर्ता के स्वाद को पहचानने और प्लेसमेंट (कई इंटरनेट कंपनियों द्वारा एक सामान्य अभ्यास) के अलावा, AI का उपयोग लोगों के मतदान (अन्य चीजों के बीच) को प्रभावित करने के लिए जानबूझकर किया जा सकता है। सूत्रों का कहना है: 1 , 2 , 3

  • हैकिंग

  • सैन्य अनुप्रयोग, जैसे ड्रोन हमले, मिसाइल लक्ष्यीकरण प्रणाली।

एअर इंडिया के प्रतिकूल प्रभाव

यह श्रेणी बहुत व्यक्तिपरक है, लेकिन एआई के विकास के कुछ प्रतिकूल प्रभाव हो सकते हैं। इस श्रेणी और पिछले के बीच अंतर यह है कि ये प्रभाव, जबकि हानिकारक, जानबूझकर नहीं किए जाते हैं; बल्कि वे एआई के विकास के साथ होते हैं। कुछ उदाहरण निम्न हैं:

  • नौकरियां निरर्थक हो रही हैं । जैसे-जैसे AI बेहतर होता जाएगा, कई नौकरियों को AI से बदल दिया जाएगा। दुर्भाग्य से ऐसी बहुत सी चीजें नहीं हैं जिनके बारे में किया जा सकता है, क्योंकि अधिकांश तकनीकी विकासों का यह दुष्प्रभाव होता है (जैसे कृषि मशीनरी ने कई किसानों को अपनी नौकरी खो दी, स्वचालन ने कई कारखाने श्रमिकों को बदल दिया, कंप्यूटरों ने भी ऐसा ही किया)।

  • मजबूत हमारे डेटा में पूर्वाग्रह । यह एक बहुत ही रोचक श्रेणी है, क्योंकि एआई (और विशेष रूप से न्यूरल नेटवर्क) केवल उतना ही अच्छा है जितना डेटा वे प्रशिक्षित हैं और उनमें पहले से ही मौजूद डेटा के विभिन्न रूपों और सामाजिक पूर्वाग्रहों को बढ़ाने की प्रवृत्ति है। नस्लवाद और सेक्सिस्ट व्यवहार प्रदर्शित करने वाले नेटवर्क के कई उदाहरण हैं। सूत्रों का कहना है: 1 , 2 , 3 , 4


4
मुझे समझ नहीं आ रहा है कि "नौकरियां निरर्थक हो रही हैं" एक गंभीर चिंता का विषय है। दुनिया कितनी खूबसूरत होगी अगर दोपहर (या कम से कम विशाल बहुमत वाले) को काम करने की आवश्यकता नहीं होगी और अपने शौक और जीवन का आनंद लेने के बजाय ध्यान केंद्रित कर सकते हैं।
kukis

4
@kukis जब तक आप पहले से ही अमीर नहीं हैं, तब तक आप खाना, घर आदि कैसे प्राप्त कर सकते हैं? एक नौकरी का मतलब ज्यादातर लोगों के लिए अस्तित्व है।
नबंर

6
नौकरियों के निरर्थक होने के बारे में, ऐसा लगता है कि हम इसके बारे में कुछ कर सकते हैं, अर्थात अपने आर्थिक मॉडल को फिर से सुधारें, ताकि इंसानों के पास नौकरियों पर भरोसा न हो। मेरा मतलब है, अगर हमारी आर्थिक व्यवस्थाएं सस्ते सस्ते श्रम से भर जाती हैं, तो वे जाहिर तौर पर त्रुटिपूर्ण हैं। और यह देखते हुए कि हम उम्मीद करते हैं कि भविष्य में यह दोष खतरनाक हो जाएगा, इसे ठीक किया जाना चाहिए।
नेट

2
एक और उदाहरण जहां एआई प्रमुख मुद्दों का कारण बन सकता है वह स्टॉक ट्रेडिंग के साथ है। इन दिनों स्टॉक ट्रेडों का अधिकांश हिस्सा तेजी से प्रतिस्पर्धी एआई द्वारा किया जाता है, जो मानव व्यापारियों की तुलना में बहुत तेजी से प्रतिक्रिया कर सकता है। लेकिन यह उस बिंदु पर पहुंच गया है जहां उन मनुष्यों ने भी लिखा है जो जरूरी नहीं समझते कि इन AI के निर्णय वे करते हैं, और स्टॉक-प्रीडिक्टिंग एल्गोरिदम से बाजारों पर कुछ भयावह प्रभाव पड़ा है।
डारेल हॉफमैन 14

8
@penelope एआई को बदलने की कोशिश करने वाला हर काम "कम-ब्याज" नहीं है। मैं तर्क दूंगा कि बहुत सारे उच्च-मांग वाले रोजगार हैं जिन्हें भविष्य में (बहुत दूर नहीं) बदला जा सकता है। कुछ उदाहरण डॉक्टर, व्यापारी और पायलट हैं। यदि एआई आगे बढ़ता रहता है और बीमारियों के निदान में बेहतर हो रहा है, तो यह सोचना अनुचित नहीं होगा कि डॉक्टर की नौकरियों में कटौती की जाएगी।
Djib2011

14

लघु अवधि

  • शारीरिक दुर्घटनाएँ , उदाहरण के लिए औद्योगिक मशीनरी, विमान ऑटोपायलट, सेल्फ-ड्राइविंग कार। विशेष रूप से असामान्य स्थितियों जैसे चरम मौसम या सेंसर की विफलता के मामले में। आमतौर पर एआई उन परिस्थितियों में खराब कार्य करेगा जहां इसका बड़े पैमाने पर परीक्षण नहीं किया गया है।
  • सामाजिक प्रभाव जैसे कि नौकरी की उपलब्धता को कम करना, वंचितों के लिए बाधाओं को कम करना। ऋण, बीमा, पैरोल।
  • सिफारिश इंजन हमारे व्यवहार को बदलने के लिए हमें अधिक से अधिक हेरफेर कर रहे हैं (साथ ही साथ हमारे अपने "छोटे दुनिया" बुलबुले) को सुदृढ़ करते हैं। अनुशंसा इंजन नियमित रूप से छोटे बच्चों को विभिन्न प्रकार की अनुचित सामग्री परोसते हैं, अक्सर क्योंकि सामग्री निर्माता (YouTube पर जैसे) बाल-मित्र के रूप में प्रदर्शित होने के लिए सही कीवर्ड स्टफिंग का उपयोग करते हैं।
  • राजनीतिक हेरफेर ... पर्याप्त ने कहा, मुझे लगता है।
  • गोपनीयता आक्रमण की प्रशंसनीय विकृतीकरण । अब जब एआई आपके ईमेल को पढ़ सकता है और यहां तक ​​कि आपके लिए फोन कॉल भी कर सकता है, तो किसी के लिए आपकी व्यक्तिगत जानकारी पर मनुष्यों के लिए काम करना आसान है और दावा करें कि उन्हें ऐसा करने के लिए कंप्यूटर मिला है।
  • युद्ध को वीडियो गेम में बदलना, अर्थात्, सैनिकों को ऐसी मशीनों से बदलना जो किसी ऐसे व्यक्ति द्वारा दूर से संचालित की जा रही हों, जो किसी खतरे में नहीं है और अपने हताहतों से बहुत दूर है।
  • पारदर्शिता का अभाव । हम निर्णय के पीछे औचित्य प्राप्त करने के बहुत कम साधनों के साथ निर्णय लेने के लिए मशीनों पर भरोसा कर रहे हैं।
  • संसाधन की खपत और प्रदूषण। यह सिर्फ एक AI समस्या नहीं है, हालांकि AI में हर सुधार बिग डेटा की अधिक मांग पैदा कर रहा है और साथ में ये स्टोरेज, प्रोसेसिंग और नेटवर्किंग की जरूरत को पूरा करता है। बिजली और दुर्लभ खनिजों की खपत के शीर्ष पर, बुनियादी ढांचे को इसके कई साल के जीवनकाल के बाद निपटाया जाना चाहिए।
  • निगरानी - स्मार्टफ़ोन और श्रवण उपकरणों की सर्वव्यापकता के साथ, डेटा की एक सोने की खान है, लेकिन हर टुकड़े के माध्यम से झारना। इसके माध्यम से झारना करने के लिए एअर इंडिया प्राप्त करें!
  • साइबर सुरक्षा - साइबर अपराधी अपने लक्ष्यों पर हमला करने के लिए एआई का लाभ उठा रहे हैं।

क्या मैंने उल्लेख किया है कि ये सभी पहले से ही पूरे जोरों पर हैं?

दीर्घावधि

यद्यपि एआई और एजीआई के बीच कोई स्पष्ट रेखा नहीं है, यह तब और अधिक होता है जब हम एजीआई की ओर आगे बढ़ते हैं। मुझे दो विकल्प दिखाई देते हैं:

  • या तो हम एजीआई को बुद्धिमत्ता की प्रकृति के बारे में हमारी बेहतर समझ के परिणामस्वरूप विकसित करते हैं,
  • या हम एक साथ कुछ ऐसा काम करते हैं जो काम करने लगता है लेकिन हम बहुत अच्छी तरह से नहीं समझते हैं, बहुत कुछ अभी मशीन सीखने जैसा है।

पहले मामले में, यदि कोई AI "बदमाश" हो जाता है, तो हम उसे बाहर निकालने और बेअसर करने के लिए अन्य AI का निर्माण कर सकते हैं। दूसरे मामले में, हम नहीं कर सकते हैं, और हम बर्बाद हो रहे हैं। AI एक नया जीवन रूप होगा और हम विलुप्त हो सकते हैं।

यहाँ कुछ संभावित समस्याएं हैं:

  • प्रतिलिपि करें और चिपकाएं। AGI के साथ एक समस्या यह है कि यह काफी हद तक एक डेस्कटॉप कंप्यूटर पर चलाया जा सकता है, जो कई समस्याएं पैदा करता है:
    • स्क्रिप्ट किडिज़ - लोग एक AI डाउनलोड कर सकते हैं और एक विनाशकारी तरीके से पैरामीटर सेट कर सकते हैं। Relatedly,
    • आपराधिक या आतंकवादी समूह अपनी पसंद के हिसाब से AI को कॉन्फ़िगर करने में सक्षम होंगे। आपको बम बनाने या बायोवैप पर एक विशेषज्ञ खोजने की आवश्यकता नहीं है यदि आप एआई डाउनलोड कर सकते हैं, तो इसे कुछ शोध करने के लिए कहें और फिर आपको चरण-दर-चरण निर्देश दें।
    • स्व-प्रतिकृति एआई - इस बारे में बहुत सारे कंप्यूटर गेम हैं। AI ढीला हो जाता है और वायरस की तरह फैल जाता है। जितनी अधिक प्रसंस्करण शक्ति होती है, उतना ही बेहतर होता है कि वह खुद को सुरक्षित रखे और आगे फैल सके।
  • कंप्यूटिंग संसाधनों पर आक्रमण । यह संभावना है कि अधिक कंप्यूटिंग शक्ति एक AI के लिए फायदेमंद है। एक एअर इंडिया सर्वर संसाधनों, या डेस्कटॉप और मोबाइल उपकरणों के संसाधनों को खरीद या चोरी कर सकता है। एक चरम पर ले जाया गया, इसका मतलब यह हो सकता है कि हमारे सभी उपकरण केवल अनुपयोगी हो गए हैं जो तुरंत .world पर कहर बरपाएंगे। इसका मतलब बड़े पैमाने पर बिजली की खपत भी हो सकता है (और "प्लग को खींचना" कठिन होगा क्योंकि बिजली संयंत्र कंप्यूटर नियंत्रित हैं!)
  • स्वचालित कारखानों। दुनिया में एक भौतिक उपस्थिति हासिल करने के इच्छुक एजीआई रोबोटों का उत्पादन करने के लिए कारखानों का अधिग्रहण कर सकता है जो नए कारखानों का निर्माण कर सकते हैं और अनिवार्य रूप से खुद के लिए शरीर बना सकते हैं।
  • ये बल्कि दार्शनिक विचार हैं, लेकिन कुछ का तर्क होगा कि एआई हमें नष्ट कर देगा जो हमें मानव बनाता है:
    • हीनता। क्या होगा अगर एआई संस्थाओं में से अधिकांश मानवों की तुलना में अधिक चालाक, तेज, अधिक विश्वसनीय और अधिक रचनात्मक थे?
    • निरर्थकता। शारीरिक श्रम की आवश्यकता के स्थान पर रोबोट और बौद्धिक श्रम की आवश्यकता के स्थान पर AI के साथ, हमारे पास वास्तव में करने के लिए कुछ नहीं होगा। किसी को फिर से नोबेल पुरस्कार मिलने वाला नहीं है क्योंकि एआई पहले से ही आगे होगा। पहली बार में शिक्षित भी क्यों?
    • मोनोकल्चर / ठहराव - विभिन्न परिदृश्यों में (जैसे कि एक "परोपकारी तानाशाह" एजीआई) समाज नए विचारों या किसी भी प्रकार के बदलाव के बिना एक सतत पैटर्न में तय किया जा सकता है (सुखद हालांकि यह हो सकता है)। असल में, बहादुर नई दुनिया।

मुझे लगता है कि एजीआई आ रहा है और हमें इन समस्याओं से सावधान रहने की जरूरत है ताकि हम उन्हें कम से कम कर सकें।


1
मुझे लगता है कि जिस तरह का AI अपने लिए रोबोट बनाने के कारखानों को फिर से तैयार करने में सक्षम है, वह बहुत लंबा रास्ता है। आधुनिक "एआई" वास्तव में परिष्कृत पैटर्न मान्यता है।
user253751

मैंने कहा "दीर्घकालिक" और "एजीआई"। AGI, परिभाषा के अनुसार, परिष्कृत पैटर्न मान्यता से परे है। और यद्यपि "परिष्कृत पैटर्न मान्यता" वास्तविक दुनिया के अनुप्रयोगों में उपयोग की जाने वाली सबसे आम बात है और दूर है, अन्य दिशाओं (विशेष रूप से समस्या अपघटन / कार्य योजना) में पहले से ही बहुत काम है, जो आईएमओ इन प्रकार के परिदृश्यों का लिंचपिन है। )
आर्टिलियस

8

अन्य उत्तरों के अलावा, मैं कुकिंग कुकी फैक्टरी उदाहरण में जोड़ना चाहूंगा:

मशीन लर्निंग एआई मूल रूप से मनुष्यों द्वारा वर्णित एक लक्ष्य को पूरा करने की कोशिश करते हैं। उदाहरण के लिए, मानव एक कुकी फैक्ट्री चलाने वाला AI बनाता है। वे जिस लक्ष्य को लागू करते हैं वह उच्चतम लाभदायक मार्जिन के लिए यथासंभव अधिक से अधिक कुकीज़ बेचने का है।

अब, एक एआई की कल्पना करें जो पर्याप्त रूप से शक्तिशाली हो। यह एआई नोटिस करेगा कि यदि वह अन्य सभी कुकी कारखानों का समर्थन करता है, तो हर किसी को अपने कारखाने में कुकीज़ खरीदने होंगे, जिससे बिक्री बढ़ेगी और मुनाफा अधिक होगा।

इसलिए, यहां मानवीय त्रुटि एल्गोरिथ्म में हिंसा का उपयोग करने के लिए कोई जुर्माना नहीं दे रही है। यह आसानी से नजरअंदाज कर दिया जाता है क्योंकि मानव इस निष्कर्ष पर आने के लिए एल्गोरिदम की उम्मीद नहीं करता था।


8
यह मुझे एक वास्तविक दुनिया के उदाहरण की याद दिलाता है जो मैंने एक बार रेडिट पर देखा था जहां कोई एआई को एकता में कुछ सीढ़ियों पर चढ़ने के लिए प्रशिक्षित कर रहा था। यह पता चला कि यह बहुत बल के साथ जमीन में खुद को दबा सकता है और भौतिकी गड़बड़ होगी, जिससे यह हवा में उड़ जाएगा और शीर्ष पर सबसे तेज़ होगा।
गामागेम

2
या, इससे भी बदतर, यह तय करेगा कि मानव परमाणुओं से बना है जो कुकीज़ को बाहर करने के लिए बेहतर होगा।
nick012000

मैंने यह तर्क पहले सुना है। एअर इंडिया कयामत के दिन की भविष्यवाणी में से एक यह है कि हम यह अनुमान नहीं लगा सकते हैं कि एआई क्या करेगा। यह पूरी तरह से संभव है कि एआई यह पहचान ले कि अन्य कुकी कंपनियों को नाकाम करने से वैश्विक अर्थव्यवस्था गिर सकती है और कुकीज़ के लिए किसी भी संभावित मांग को नष्ट किया जा सकता है ... अर्थशास्त्र, आपूर्ति और मांग का कानून
ज़क्क डियाज़

8

एआई द्वारा नुकसान के लिए मेरा पसंदीदा परिदृश्य में उच्च बुद्धि नहीं है, लेकिन कम बुद्धि है। विशेष रूप से, ग्रे गूओ परिकल्पना।

यह वह जगह है जहां एक स्व-प्रतिकृति, स्वचालित प्रक्रिया एमोक चलती है और सभी संसाधनों को स्वयं की प्रतियों में परिवर्तित करती है।

यहाँ मुद्दा यह है कि उच्च बुद्धि या सामान्य बुद्धि होने के अर्थ में एआई "स्मार्ट" नहीं है - यह केवल एक ही चीज़ पर बहुत अच्छा है और इसमें तेजी से दोहराने की क्षमता है।


3
एफडब्ल्यूआईडब्ल्यू, मनुष्य पहले से ही ग्रे गू हैं। हम स्वार्थी ग्रे गूओ हैं जो एक और अधिक कुशल ग्रे गू द्वारा प्रतिस्थापित नहीं करना चाहते हैं।
user253751

1
@ मिनीबिस बेशक एक दार्शनिक पीओवी है, तथ्य नहीं। ऐसे बहुत सारे लोग हैं जो मनुष्यों और आत्म-प्रतिकृति / आत्मनिर्भर मशीनों के बीच अंतर करते हैं। ज़ोंबी फिल्में अगर बहुमत दिल में अपनी परिभाषा किए गए बहुत सफल नहीं होगा =)
Stian Yttervik

1
@immibis क्या आपने विकिपीडिया पर ग्रे गूओ लेख पढ़ा है कि यह उत्तर संदर्भ है? यह शब्द किसी भी बुद्धिमान व्यवहार के लिए नहीं, बल्कि अमोघ (नैनो) मशीनों को संदर्भित करता है। तो मैं कहता हूँ, नहीं, मनुष्य यह नहीं हैं (और न ही एआई है), क्योंकि हम अल्बर्ट आइंस्टीन नहीं खा सकते थे जब हम कर सकते थे।
kubanczyk

@kubanczyk शब्द का मूल अर्थ "बुद्धिमत्ता" व्यापक रूप से गलत समझा जाता है, दोनों अकादमिया और आम जनता में। इंटेलिजेंस एक स्पेक्ट्रम है, आमतौर पर सापेक्ष (अन्य निर्णय लेने वाले तंत्रों के लिए), और किसी समस्या के संदर्भ में किसी भी निर्णय की उपयोगिता पर आधारित होता है। इसलिए ग्रे गू बुद्धिमान होगा, बस बुद्धि सीमित और संकीर्ण होगी।
DukeZhou

5

मैं कहूंगा कि सबसे बड़ा वास्तविक खतरा असंतुलित / बाधित करना होगा जो हम पहले से देख रहे हैं। देश को 90% काम से बाहर रखने के परिवर्तन वास्तविक हैं, और यदि आप उनके माध्यम से सोचते हैं तो परिणाम (जो धन का अधिक असमान वितरण होगा) भयानक हैं।


2
लोगों ने औद्योगिक क्रांति के दौरान वही बात कही जिसने खेती के ज्यादातर कामों को निरर्थक बना दिया। हालांकि आप गलत नहीं हो सकते हैं, और यह कुछ ऐसा है जो मैं व्यक्तिगत रूप से चिंतित हूं, अनुसंधान अध्ययन के रुझान बताते हैं कि यह चिंता का विषय नहीं हो सकता है और यह संभव है कि नए रोजगार खुलेंगे।
प्रोग्राममेउड

@Programmdude - मुझे लगता है कि आने वाले दशकों में पी के आगमन के माध्यम से औद्योगिक क्रांति में बदलाव और यहां तक ​​कि सचिवीय नौकरियों के उन्मूलन के बीच एक बुनियादी अंतर है।
मेयो

2
@Programmdude और लोग सही थे। औद्योगिक क्रांति ने लोगों के जीने के तरीके के बारे में सब कुछ बदल दिया, यह धन के वितरण और लोगों की कृषि आय पर मौजूद रहने की क्षमता के मामले में बेहद विघटनकारी था। दूसरे दृष्टिकोण से: भविष्य में कुछ सौ वर्षों से वापस देख रहे गुलाम मालिकों को शायद इस अवधि में एआई के प्रभाव को विघटनकारी नहीं लगेगा क्योंकि यह उनकी स्थिति का गठन किया था।
बिल के

@BillK मैं दास मालिकों के बारे में हिस्सा लेने तक आपके साथ था। आप जानते हैं कि AI आत्म-जागरूक नहीं हैं, है ना?
रे

@ मुझे एम्स से मतलब नहीं था, मेरा मतलब था कि एआई को नियंत्रित करने वाले लोग (और इसलिए सभी के पास धन होगा), और वास्तव में यह सिर्फ एक तरीका था जो यह बताता था कि चीजें हमारे लिए अलग-अलग हो सकती हैं, लेकिन यह नहीं होगा ' टी लग रहा है कि अलग लग रही है।
बिल के

5

मेरे पास एक उदाहरण है जो जनता के डर के विपरीत दिशा में चलता है, लेकिन एक बहुत ही वास्तविक चीज है, जिसे मैं पहले से ही देख रहा हूं। यह एआई-विशिष्ट नहीं है, लेकिन मुझे लगता है कि यह एआई के माध्यम से खराब हो जाएगा। यह एआई निष्कर्ष पर भरोसा करने वाले मनुष्यों की समस्या है जो गंभीर अनुप्रयोगों में आँख बंद करके भरोसा करते हैं

हमारे पास कई क्षेत्र हैं जिनमें मानव विशेषज्ञों को निर्णय लेना है। उदाहरण के लिए दवा लें - क्या हमें दवा X या दवा Y देनी चाहिए? जिन स्थितियों को मैं ध्यान में रखता हूं, वे अक्सर जटिल समस्याएं हैं (सिनफिन अर्थ में) जहां किसी को बहुत बारीकी से ध्यान देना और बहुत सारी विशेषज्ञता का उपयोग करना बहुत अच्छी बात है, और परिणाम वास्तव में मायने रखता है।

चिकित्सा के जानकारों की मांग है कि दवा में इस तरह की समस्या के लिए निर्णय समर्थन प्रणाली लिखी जाए (और मुझे लगता है कि अन्य डोमेन में भी इसी प्रकार की है)। वे अपनी पूरी कोशिश करते हैं, लेकिन उम्मीद हमेशा यह है कि एक मानव विशेषज्ञ हमेशा सिस्टम के सुझाव को केवल एक और राय के रूप में विचार करेगा, जब वह निर्णय लेगा। कई मामलों में, ज्ञान की स्थिति और डेवलपर्स के लिए उपलब्ध संसाधनों को देखते हुए, किसी और चीज का वादा करना गैर-जिम्मेदाराना होगा। एक विशिष्ट उदाहरण रेडियोमिक्स में कंप्यूटर विज़न का उपयोग होगा: एक मरीज को सीटी स्कैन मिलता है और एआई को छवि को संसाधित करना होता है और यह तय करना होता है कि मरीज को ट्यूमर है या नहीं।

बेशक, एआई सही नहीं है। यहां तक ​​कि जब सोने के मानक के खिलाफ मापा जाता है, तो यह कभी भी 100% सटीकता प्राप्त नहीं करता है। और फिर ऐसे सभी मामले हैं जहां यह अपने लक्ष्य मैट्रिक्स के खिलाफ अच्छा प्रदर्शन करता है, लेकिन समस्या इतनी जटिल थी कि लक्ष्य मीट्रिक इसे अच्छी तरह से कैप्चर नहीं करता है - मैं सीटी संदर्भ में एक उदाहरण के बारे में नहीं सोच सकता, लेकिन मुझे लगता है हम इसे एसई पर भी यहां देखते हैं, जहां एल्गोरिदम पदों में लोकप्रियता का पक्ष लेते हैं, जो कि तथ्यात्मक शुद्धता के लिए एक अपूर्ण प्रॉक्सी है।

आप शायद उस आखिरी पैराग्राफ को पढ़ रहे थे और साथ में सिर हिला रहे थे, "हाँ, मैंने सीखा है कि पहले परिचयात्मक एमएल कोर्स में मैंने लिया था"। अंदाज़ा लगाओ? चिकित्सकों ने कभी भी परिचयात्मक एमएल कोर्स नहीं लिया। चिकित्सा पत्रिकाओं में प्रदर्शित होने वाले पत्रों के निष्कर्ष को समझने के लिए उनके पास शायद ही पर्याप्त सांख्यिकीय साक्षरता है। जब वे अपने 27 वें मरीज से बात कर रहे होते हैं, 7 घंटे 16 घंटे की शिफ्ट में, भूखे और भावनात्मक रूप से जल चुके होते हैं, और सीटी यह सब स्पष्ट नहीं दिखता है, लेकिन कंप्यूटर कहता है कि "यह एक दुर्भावना नहीं है", वे नहीं करते हैं छवि पर ध्यान केंद्रित करने के लिए दस और मिनट लें, या एक पाठ्यपुस्तक देखें, या किसी सहकर्मी के साथ परामर्श करें। वे बस कंप्यूटर के साथ क्या कहते हैं, आभारी हैं कि उनका संज्ञानात्मक भार फिर से आसमान छू नहीं रहा है। इसलिए वे विशेषज्ञ होने से बदलकर ऐसे लोग बन जाते हैं जो एक स्क्रीन से कुछ पढ़ते हैं। और भी बुरा, कुछ अस्पतालों में प्रशासन केवल कंप्यूटरों पर भरोसा नहीं करता है, यह भी पता चला है कि वे सुविधाजनक बलि का बकरा हैं। तो, एक चिकित्सक के पास एक खराब कूबड़ है जो कंप्यूटर के आउटपुट के खिलाफ जाता है, उनके लिए उस कूबड़ पर कार्रवाई करना और खुद का बचाव करना मुश्किल हो जाता है कि उन्होंने AI की राय को ओवररोड करना चुना।

एआई शक्तिशाली और उपयोगी उपकरण हैं, लेकिन हमेशा ऐसे कार्य होंगे जहां वे टूलवाइल्डर को प्रतिस्थापित नहीं कर सकते।


यदि आप अधिक उदाहरणों की तलाश कर रहे हैं, तो जमानत या पैरोल के लिए आवेदकों की दरों की पुनरावृत्ति दर का अनुमान लगाने के लिए मशीन लर्निंग का उपयोग करने के बारे में विवाद एक अच्छा है। मैं मानता हूं कि हमें डॉक्टरों और न्यायाधीशों से एआई को समझने के लिए उनकी चिकित्सा और कानूनी विशेषज्ञता के अलावा सांख्यिकीय विशेषज्ञता के स्तर की उम्मीद नहीं करनी चाहिए। एआई डिजाइनरों को अपने एल्गोरिदम की गिरावट के बारे में पता होना चाहिए, और अपने उपयोगकर्ताओं को स्पष्ट मार्गदर्शन प्रदान करना चाहिए। शायद डॉक्टर को बताएं कि उन्हें सीधे परिणाम देने के बजाय सीटी स्कैन कहां देखना है।
क्रेक

4

यह केवल अन्य उत्तर के पूरक होने का इरादा रखता है इसलिए मैं एआई की संभावना के बारे में चर्चा नहीं करूंगा जो स्वेच्छा से दासता की कोशिश कर रहा है।

लेकिन एक अलग जोखिम पहले से ही यहां है। मैं इसे अनमास्टर्ड टेक्नोलॉजी कहूंगा । मुझे विज्ञान और प्रौद्योगिकी सिखाई गई है, और IMHO, AI ने खुद को अच्छे और बुरे, और न ही स्वतंत्रता की कोई धारणा दी है। लेकिन यह मानव द्वारा निर्मित और उपयोग किया जाता है और इसके कारण गैर तर्कसंगत व्यवहार शामिल हो सकता है।

मैं एआई की तुलना में सामान्य आईटी से संबंधित वास्तविक जीवन उदाहरण के साथ शुरू करूंगा। मैं वायरस या अन्य malwares की बात करूंगा। कंप्यूटर बल्कि बेवकूफ मशीनें हैं जो जल्दी से डेटा संसाधित करने के लिए अच्छे हैं। इसलिए ज्यादातर लोग उन पर भरोसा करते हैं। कुछ (खराब) लोग malwares विकसित करते हैं जो कंप्यूटर के सही व्यवहार को बाधित करेंगे। और हम सभी जानते हैं कि वे छोटे से मध्यम संगठनों पर भयानक प्रभाव डाल सकते हैं जो अच्छी तरह से कंप्यूटर के नुकसान के लिए तैयार नहीं हैं।

एआई कंप्यूटर आधारित है इसलिए यह कंप्यूटर प्रकार के हमलों के लिए असुरक्षित है। यहाँ मेरा उदाहरण एक AI चालित कार होगी। तकनीक काम करने के लिए लगभग तैयार है। लेकिन सड़क पर अन्य लोगों पर हमला करने की कोशिश कर रही कार को बनाने वाले मैलवेयर के प्रभाव की कल्पना करें। यहां तक ​​कि एआई के कोड तक सीधी पहुंच के बिना, यह साइड चैनलों द्वारा हमला किया जा सकता है । उदाहरण के लिए यह सिग्नल संकेतों को पढ़ने के लिए कैमरों का उपयोग करता है। लेकिन जिस तरह से मशीन लर्निंग को लागू किया जाता है, एआई सामान्य तौर पर उस दृश्य का विश्लेषण नहीं करता है जिस तरह से एक इंसान करता है। शोधकर्ताओं ने दिखाया है कि एक संकेत को इस तरह से बदलना संभव था कि एक सामान्य मानव अभी भी मूल चिन्ह देखेगा, लेकिन एक एआई एक अलग दिखाई देगा। अब कल्पना कीजिए कि संकेत सड़क प्राथमिकता का संकेत है ...

मेरा मतलब है कि भले ही एआई में कोई बुराई नहीं है, बुरे लोग इसे बुरी तरह से व्यवहार करने की कोशिश कर सकते हैं। और अधिक महत्वपूर्ण कार्यों के लिए AI (medecine, कारों, विमानों, बमों की नहीं बोलना) को उच्च जोखिम में सौंप दिया जाएगा। अलग तरह से कहा, मैं वास्तव में अपने लिए एआई से डरता नहीं हूं, लेकिन जिस तरह से इसका उपयोग मनुष्यों द्वारा किया जा सकता है।


3

मुझे लगता है कि सबसे वास्तविक (यानी, मौजूदा, मौजूदा एआई से संबंधित) जोखिमों में से एक दो कारणों से अनैतिक रूप से एआई पर निर्भर है।

1. AI सिस्टम ख़राब हो सकता है

एआई सिस्टम में शारीरिक त्रुटि उन क्षेत्रों में बेतहाशा गलत परिणाम उत्पन्न करना शुरू कर सकती है जिनमें उनका परीक्षण नहीं किया गया था क्योंकि भौतिक प्रणाली गलत मूल्य प्रदान करना शुरू कर देती है। यह कभी-कभी स्व-परीक्षण और अतिरेक द्वारा भुनाया जाता है, लेकिन फिर भी कभी-कभी मानव पर्यवेक्षण की आवश्यकता होती है।

सेल्फ लर्निंग एआई में एक सॉफ्टवेयर कमजोरी भी है - उनके वजन नेटवर्क या सांख्यिकीय प्रतिनिधित्व स्थानीय मिनिमा के पास पहुंच सकते हैं जहां वे एक गलत परिणाम के साथ फंस गए हैं।

2. एआई सिस्टम पक्षपाती हैं

यह सौभाग्य से अक्सर चर्चा में है, लेकिन ध्यान देने योग्य है: एआई सिस्टम के इनपुट का वर्गीकरण अक्सर पक्षपाती होता है क्योंकि प्रशिक्षण / परीक्षण डेटासेट भी पूर्वाग्रहित थे। एआई में यह परिणाम अधिक स्पष्ट उदाहरण के लिए कुछ जातीयता के लोगों को मान्यता नहीं देता है। हालांकि ऐसे कम स्पष्ट मामले हैं जो केवल कुछ खराब दुर्घटना के बाद ही खोजे जा सकते हैं, जैसे कि एआई कुछ आंकड़ों को नहीं पहचानता है और गलती से किसी कारखाने में आग लगाना, उपकरण तोड़ना या लोगों को चोट पहुंचाना है।


यह एक अच्छा, समकालीन उत्तर है। "ब्लैक बॉक्स" एआई जैसे कि तंत्रिका नेटवर्क को निरपेक्ष तरीके से परीक्षण करना असंभव है, जो उन्हें 100% से कम पूर्वानुमानित करता है - और विस्तार से, 100% से कम विश्वसनीय। हम कभी नहीं जानते हैं कि कोई AI किसी दी गई समस्या के लिए एक वैकल्पिक रणनीति कब विकसित करेगा, और यह वैकल्पिक रणनीति हमें कैसे प्रभावित करेगी, और यह एक बहुत बड़ा मुद्दा है अगर हम कार चलाने या संसाधनों के प्रबंधन जैसे महत्वपूर्ण कार्यों के लिए AI पर निर्भर रहना चाहते हैं।
laancelot

1

यदि रोबोट मानव मशीन इंटरफेस के समान है, तो डिवाइस रिमोट नियंत्रित कार की तरह ही है। जॉयस्टिक के पीछे ऑपरेटर के साथ चर्चा करना और एक इच्छापूर्ण व्यवहार के बारे में बातचीत करना संभव है। रिमोट नियंत्रित रोबोट सुरक्षित आविष्कार हैं क्योंकि उनके कार्यों का मनुष्यों पर वापस पता लगाया जा सकता है और उनकी प्रेरणा का अनुमान लगाया जा सकता है। उनका उपयोग दैनिक जीवन को बेहतर बनाने के लिए किया जा सकता है, और उनके साथ खेलना मज़ेदार है।

इसके विपरीत, कुछ रोबोट जॉयस्टिक द्वारा नियंत्रित नहीं होते हैं, लेकिन एक आंतरिक पासा जनरेटर के साथ काम कर रहे हैं। पासा खिलौना जुआ में सामाजिक भूमिका से जाना जाता है, लेकिन इसका एक गूढ़ अर्थ भी है। आमतौर पर, एक यादृच्छिक जनरेटर दृढ़ता से अराजक व्यवहार से जुड़ा होता है जो मनुष्यों के प्रभाव के बाहर अंधेरे बलों द्वारा नियंत्रित होता है। रोबोट में निर्मित एक इलेक्ट्रॉनिक पासा और लर्निंग एल्गोरिदम के साथ बेहतर बनाया गया मानव मशीन इंटरफ़ेस के विपरीत है, लेकिन यह संभावित संकटमोचक है क्योंकि बेतरतीब ढंग से नियंत्रित रोबोट उन मनुष्यों के साथ खेल खेलेंगे जिनका अनुमान नहीं लगाया जा सकता है। पासा की अगली संख्या की भविष्यवाणी करना संभव नहीं है, इसलिए रोबोट अचानक भी व्यवहार करेगा।

बेतरतीब ढंग से नियंत्रित गेम और नकारात्मक सामाजिक प्रभाव के बीच संबंध को निम्नलिखित वाक्य में समझाया गया था।

उद्धरण: “कई पारंपरिक गैर-पश्चिमी समाजों में जुआरी सफलता के लिए देवताओं से प्रार्थना कर सकते हैं और दैवीय इच्छा के संदर्भ में जीत और हार की व्याख्या कर सकते हैं। "बिंडे, प्रति। "जुआ और धर्म: सहमति और संघर्ष का इतिहास।" जुआ मुद्दों के जर्नल 20 (2007): 145-165।


1

मानव वर्तमान में "जिस चीज को सोचता है" के एक पारिस्थितिक-आर्थिक क्षेत्र में मौजूद है।

एआई भी एक ऐसी चीज है जो सोचता है, इसलिए यह हमारे पारिस्थितिक-आर्थिक आला पर हमला करेगा। पारिस्थितिकी और अर्थशास्त्र दोनों में, आपके आला पर कुछ और होने से निरंतर अस्तित्व के लिए एक शानदार योजना नहीं है।

कैसे मानव अस्तित्व से समझौता किया जाता है यह बहुत अराजक होने वाला है। ऐसे प्रशंसनीय तरीकों का एक समूह बनने जा रहा है जो एआई एक प्रजाति के रूप में, या यहां तक ​​कि एक प्रमुख जीवन रूप के रूप में मानव अस्तित्व को खतरे में डाल सकता है।


मान लीजिए कि "सुपर नैतिकता" के बिना एक मजबूत एआई है, जो मानव की तुलना में निर्माण करने के लिए सस्ता है (जिसमें "शरीर" या दुनिया में हेरफेर करने का तरीका भी शामिल है), और मानव की तुलना में स्मार्ट या होशियार।

यह एक ऐसा मामला है जहां हम संसाधनों के लिए उस AI के साथ प्रतिस्पर्धा करना शुरू करते हैं। यह माइक्रोइकॉनॉमिक तराजू पर होगा (क्या हम इस समस्या को हल करने के लिए एक मानव को किराए पर लेते हैं, या एआई को खरीदने / बनाने / किराए पर लेते हैं?)। जिस दर पर AI सस्ते और / या लोगों से अधिक स्मार्ट हो जाते हैं, उसके आधार पर यह धीरे-धीरे (शायद एक समय में एक उद्योग) या बेहद तेज हो सकता है।

एक पूंजीवादी प्रतियोगिता में, जो सस्ते एआई के लिए आगे नहीं बढ़ते हैं, वे प्रतिस्पर्धा से बाहर हो जाते हैं।

अब, अल्पावधि में, यदि AI के फायदे केवल सीमांत हैं, तो उत्पादक बनने से पहले 20-वर्ष के लिए मनुष्यों को शिक्षित करने की उच्च लागत इस प्रक्रिया को धीमा कर सकती है। इस मामले में, यह एआई के बजाय रोग का निदान करने के लिए भुखमरी मजदूरी से ऊपर एक डॉक्टर को भुगतान करने के लायक हो सकता है, लेकिन यह संभवतः उनके छात्र ऋण का भुगतान करने के लायक नहीं है। इसलिए नए मानव डॉक्टर्स तेजी से प्रशिक्षित होना बंद हो जाएंगे, और मौजूदा डॉक्टर्स खराब हो जाएंगे। फिर 20-30 वर्षों में एआई पूरी तरह से नैदानिक ​​उद्देश्यों के लिए डॉक्टरों की जगह लेगा।

यदि एआई के फायदे बड़े हैं, तो यह तेजी से होगा। मानव निदान करने के लिए डॉक्टर गरीबी स्तर की मजदूरी देने के लायक भी नहीं होंगे। जब आप गैसोलीन आधारित खेती करते हैं, तो आप मांसपेशियों पर आधारित खेती के साथ कुछ ऐसा देख सकते हैं।

पिछले औद्योगिक क्रांतियों के दौरान, यह तथ्य कि मानव जहां सोचने में सक्षम है, उसका मतलब है कि आप अन्य कार्यों को करने के लिए अधिशेष मानव श्रमिकों का पुनरुत्पादन कर सकते हैं; मैन्युफैक्चरिंग लाइन्स, सर्विस इकोनॉमी जॉब्स, कंप्यूटर प्रोग्रामिंग आदि, लेकिन इस मॉडल में, AI उस तरह की नौकरी में इंसानों की तुलना में प्रशिक्षित और निर्माण और स्मार्ट या अधिक सस्ता है।

जैसा कि इथेनॉल से प्रेरित अरब वसंत द्वारा दर्शाया गया है, फसलों और क्रॉपलैंड को मशीनों और मनुष्यों दोनों को ईंधन देने के लिए इस्तेमाल किया जा सकता है। जब मशीनें क्रॉपलैंड को उपयोगी कार्य में बदलने के मामले में अधिक कुशल होती हैं, तो आपको खाद्य चढ़ाई की कीमत दिखाई देने लगेगी। यह आम तौर पर दंगों की ओर ले जाता है, क्योंकि लोग वास्तव में मौत को भूखे रहना पसंद नहीं करते हैं और इसे रोकने के लिए सरकार को उखाड़ फेंकने के लिए अपनी जान जोखिम में डालने को तैयार हैं।

आप लोगों को रियायती भोजन और इस तरह से भोजन उपलब्ध करा सकते हैं। इसलिए जब तक यह आर्थिक रूप से अपंग नहीं होता (यानी, यदि बहुत महंगा है, तो इसका परिणाम यह हो सकता है कि आप अन्य स्थानों से बाहर हो सकते हैं, जो ऐसा नहीं करते हैं), यह केवल राजनीतिक रूप से अस्थिर है।

एक विकल्प के रूप में, अल्पावधि में, स्वामित्व वाली जाति जो तेजी से कुशल एआई-रन अर्थव्यवस्था से लाभ प्राप्त कर रही है, पुलिस या सैन्य जाति के लिए उक्त दंगों का भुगतान कर सकती है। इसके लिए आवश्यक है कि पुलिस / सेना की जातियों के जीवन स्तर में निम्न वर्ग का उच्च स्तर हो, ताकि वे निरंतर वफादारी सुनिश्चित कर सकें - आप उन्हें दंगाइयों में शामिल नहीं करना चाहते हैं।

तो आप जिन लाभ केंद्रों में AI रख सकते हैं उनमें से एक AI आधारित सैन्य और पुलिसिंग है। प्रसंस्करण दृश्य और अन्य डेटा फीड के आधार पर घातक और गैर-घातक आयुध वितरित करने वाले ड्रोन भोजन-मूल्य ट्रिगर दंगों या अन्य अस्थिरता को कम करने के लिए आवश्यक मध्यम वर्ग पुलिस / सेना की संख्या को कम कर सकते हैं। जैसा कि हमने पहले ही मान लिया है कि AI में जैविक मानव की तुलना में शरीर और प्रशिक्षण सस्ता हो सकता है, इससे आप खर्च किए गए प्रति डॉलर बल को भी बढ़ा सकते हैं।

इस बिंदु पर, हम ज्यादातर एआई रन पुलिस और सेना के बारे में बात कर रहे हैं, जिसका उपयोग मनुष्यों को एआई रन अर्थव्यवस्था को उखाड़ फेंकने के लिए किया जा रहा है और वर्तमान में लगाए जाने वाले अधिक कुशल उपयोग से उत्पादन के साधनों को जब्त करना है।

शीर्ष पर व्यवस्था रखने वाले शातिर मानव अपनी संपत्ति और शक्ति का अनुकूलन करने के लिए स्थानीय रूप से तर्कसंगत निर्णय ले रहे हैं। वे लंबे समय तक बने रह सकते हैं या नहीं; जब तक वे अपेक्षाकृत कम मात्रा में संसाधनों की निकासी करते हैं और एआई रन अर्थव्यवस्था को गड़बड़ नहीं करते हैं, तब तक उनसे छुटकारा पाने के लिए बहुत अधिक चयन दबाव नहीं होगा। दूसरी ओर, जैसा कि वे मूल्य के बिना कुछ भी योगदान दे रहे हैं, वे "शीर्ष पर" स्थिति राजनीतिक रूप से अस्थिर हैं।

इस प्रक्रिया ने एक "मजबूत" सामान्य एआई मान लिया। नैरोअर एआई इसे टुकड़ों में खींच सकता है। एक सस्ता, प्रभावी नैदानिक ​​कंप्यूटर उदाहरण के लिए, आश्चर्यजनक रूप से कम समय में गरीबी में अधिकांश डॉक्टरों को कम कर सकता है। सेल्फ ड्राइविंग कार अर्थव्यवस्था का 5% -10% निगल सकती है। सूचना प्रौद्योगिकी पहले से ही मामूली एआई के साथ खुदरा क्षेत्र को निगल रही है।

यह कहा जाता है कि हर तकनीकी प्रगति मनुष्यों के लिए अधिक और बेहतर नौकरियों की ओर ले जाती है। और यह पिछले 300+ वर्षों से सच है।

लेकिन 1900 से पहले, यह भी सच था कि हर तकनीकी उन्नति ने घोड़ों के लिए अधिक और बेहतर नौकरियां पैदा कीं। फिर आईसीई और ऑटोमोबाइल पहुंचे, और अब बहुत कम कामकाजी घोड़े हैं; शेष घोड़े मूल रूप से मानव व्यक्तिगत सेवकों के समतुल्य हैं: "वाह, शांत, घोड़े" की नवीनता और विशाल जानवर की सवारी और नियंत्रित करने की मस्ती के लिए रखे गए हैं।


1

पहले से ही प्रदान किए गए कई उत्तरों के लिए, मैं छवि मॉडल के क्षेत्र में प्रतिकूल उदाहरणों के मुद्दे को सामने लाऊंगा ।

प्रतिकूल उदाहरण वे छवियां हैं, जिन्हें विशेष रूप से डिज़ाइन किए गए शोर से परेशान किया गया है जो अक्सर एक मानव पर्यवेक्षक के लिए अस्वीकार्य है, लेकिन एक मॉडल की भविष्यवाणी को दृढ़ता से बदल देता है।

उदाहरणों में शामिल:


0

एआई जिसका उपयोग वास्तविक दुनिया की समस्या को हल करने के लिए किया जाता है, जो मानवता के लिए जोखिम पैदा कर सकती है और इसके लिए बिल्कुल भी संवेदना की आवश्यकता नहीं होती है, इसके लिए मानव मूर्खता की डिग्री की भी आवश्यकता होती है।

मनुष्यों के विपरीत, एक एआई को भावना, नैतिकता, या यहां तक ​​कि लालच की बाधा के बिना सबसे तार्किक जवाब मिलेगा ... केवल तर्क। इस एआई से पूछें कि एक समस्या को कैसे हल किया जाए जो मानव (उदाहरण के लिए, जलवायु परिवर्तन) और इसका समाधान हो सकता है कि ग्रह की रक्षा के लिए मानव जाति की संपूर्णता को खत्म कर सके। जाहिर है कि इससे एआई को परिणाम देने की क्षमता देने की आवश्यकता होगी, जो मुझे मेरे पहले बिंदु पर ले जाता है, मानवीय मूर्खता।


0

कृत्रिम बुद्धिमत्ता हमें प्राकृतिक बुद्धिमत्ता (मनुष्यों के) के किसी भी तरीके से नुकसान पहुंचा सकती है। प्राकृतिक और कृत्रिम बुद्धिमत्ता के बीच का अंतर मिट जाएगा जब मनुष्य अपने आप को और अधिक तीव्रता से बढ़ाने लगेगा। इंटेलिजेंस अब पहचान को चिह्नित नहीं कर सकता है और यह एक असीम अधिकार बन जाएगा। जितना नुकसान होगा, मनुष्य उतनी ही सहन कर सकता है जितना कि अपनी विकसित होती आत्म-पहचान को बचाए रखना।


0

कुछ लोगों को एहसास है कि हमारी वैश्विक अर्थव्यवस्था को एआई माना जाना चाहिए: - पैसे का लेनदेन एक तंत्रिका जाल पर संकेत हैं। तंत्रिका जाल में नोड्स अलग-अलग निगम या निजी व्यक्ति होंगे जो पैसे का भुगतान या प्राप्त करेंगे। - यह मानव निर्मित है इसलिए कृत्रिम रूप से योग्य है

यह तंत्रिका नेटवर्क अपने कार्य में बेहतर है फिर मनुष्य: पूंजीवाद ने हमेशा मानव (योजना-अर्थव्यवस्था) द्वारा नियोजित अर्थव्यवस्था के खिलाफ जीत हासिल की है।

क्या यह तंत्रिका जाल खतरनाक है? अगर आप कॉर्पोरेट कचरे से प्रदूषित नदी में एक मछुआरे के रूप में बड़ी कमाई करते हैं, तो आप अलग हो सकते हैं।

यह AI खतरनाक कैसे हो गया? आप इसका जवाब मानव लालच के कारण दे सकते हैं। हमारी रचना स्वयं को दर्शाती है। दूसरे शब्दों में: हमने अपने तंत्रिका जाल को अच्छी तरह से व्यवहार करने के लिए प्रशिक्षित नहीं किया। सभी मनुष्यों के लिए जीवित गुणवत्ता में सुधार करने के लिए तंत्रिका जाल को प्रशिक्षित करने के बजाय, हमने इसे अमीर लोगों को अधिक अमीर बनाने के लिए प्रशिक्षित किया।

क्या इस एआई को प्रशिक्षित करना आसान नहीं होगा? शायद नहीं, हो सकता है कि कुछ एआई सिर्फ बड़ा हो तो जीवन। यह सिर्फ योग्यतम की उत्तरजीविता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.