इस विचार में क्या गलत है कि एआई सर्वज्ञता के लिए सक्षम होगा?


10

कृत्रिम बुद्धिमत्ता के संदर्भ में, विलक्षणता एक कृत्रिम सामान्य बुद्धि के आगमन को संदर्भित करता है जो पुनरावर्ती आत्म-सुधार में सक्षम है, जिससे कृत्रिम अधीक्षण (एएसआई) का तेजी से उदय होता है, जिसकी सीमाएं अज्ञात हैं, कुछ ही समय बाद तकनीकी विशिष्टता हासिल हो जाती है। । इसलिए, ये अधीक्षण उन समस्याओं को हल करने में सक्षम होंगे जिन्हें हम संभवतः हल करने में असमर्थ हैं।

कृत्रिम बुद्धिमत्ता में फ्यूचर प्रोग्रेस में रिपोर्ट पोल के अनुसार : विशेषज्ञ की राय का सर्वेक्षण (2014)

उत्तरदाताओं का औसत अनुमान दो में से एक के लिए था कि हाईलेवल मशीन इंटेलिजेंस को 2040-2050 के आसपास विकसित किया जाएगा

जो बहुत दूर नहीं है।

इस विचार में क्या गलत है कि एआई सर्वज्ञता के लिए सक्षम होगा, यह देखते हुए कि यह कई समस्याओं को हल करके हमें लाभान्वित कर सकता है?

जवाबों:


8

मुझे आपका दृष्टिकोण बहुत पसंद है, और इस बात के विवरण के बिना कि "विलक्षणता" कैसे प्रभावित हो सकती है, जो कई अन्य प्रश्नों में शामिल है, या चेतना और "सर्वज्ञता" कैसे चलन में आते हैं क्योंकि चेतना और सर्वज्ञता आवश्यकताएं नहीं हैं , मैं इसके बजाय आप दो प्रमुख दार्शनिकों को निर्देशित करते हैं:

  • फिलिप के। डिक, जिनके लिए एआई पर उनकी प्रसिद्ध 1968 की किताब में केंद्रीय विषय समानुभूति है। (यदि आपने इसे नहीं पढ़ा है, तो मैं एक स्पॉइलर पोस्ट नहीं कर रहा हूं, लेकिन केवल यह कहूंगा कि प्लॉट इवोल्यूशनरी गेम थ्योरी की अवधारणा से प्रेरित है जिसे केवल 5 साल बाद औपचारिक रूप दिया गया था।)

  • जॉन नैश, और विशेष रूप से, नैश इक्विलिब्रियम की अवधारणा । (नैश को गणितीय रूप से यह प्रदर्शित करने के लिए कहा जा सकता है कि "डॉकबैग" होना एक इष्टतम रणनीति नहीं है। उनके प्रमाण का उपयोग यह समझाने के लिए किया जा सकता है कि परमाणु डेंटेंट ने वास्तव में क्यों काम किया , जो वॉन न्यूमैन की अपेक्षा के लिए काउंटर था।

इसलिए जब लोग पागल हो जाते हैं, तो " स्काईनेट " मिथोस पर ध्यान केंद्रित करते हैं, जिसके तहत मशीनें हमें नष्ट करने के लिए उठती हैं, मुझे आश्चर्य होता है कि क्या वे केवल नैश के रूप में स्मार्ट नहीं हैं या डिक के रूप में गहरा नहीं है, जो उनके जोर की कमी को समझा सकता है। जिसे " इलेक्ट्रिक शीप " प्रतिमान कहा जा सकता है ।


1
मैं कुल मिलाकर आपसे सहमत हूँ। कभी-कभी मैं पूछता हूं कि नई प्रौद्योगिकियों को बनाने के लिए हमें क्या करना है। क्या हम पूर्ण शक्तियाँ चाहते हैं या वास्तव में हमारी वास्तविक समस्याओं का समाधान करते हैं? इसलिए मैं प्यार के चश्मे से देखना पसंद करता हूं। कुछ इसे क्लिच मान सकते हैं, लेकिन मुझे विश्वास है कि जिस तरह से।
कार्ल ज़िलर

@ कर्लजिलर ने पौराणिक मोर्चे पर जारी रखते हुए, स्ट्रॉस ' एक्सेलेन्डो में , उन्होंने "इकोनॉमिक्स 2.0 * की एक अवधारणा का परिचय दिया, जिसे एक ऐसे सिस्टम के रूप में परिभाषित किया गया, जिसमें संवर्धित मनुष्य भी अब शुद्ध एल्गोरिदम का मुकाबला नहीं कर सकते, और जो पूरी तरह से व्यर्थ प्रतीत होता है। दो मुख्य मार्गों को प्रस्तावित करने के लिए - अर्ध-पक्षपातपूर्ण, सहकारी एआई बनाम हाइपरपार्टिसन एआई (जो कम बुद्धिमान चचेरे भाई के रूप में आते हैं, अत्यधिक-अनुकूलित निम्न-स्तरीय अधिग्रहण कार्यों के साथ होते हैं जो उन्हें सृष्टिकर्ता के बुनियादी ढांचे को अभिभूत और सह-ऑप्ट करने की अनुमति देते हैं। )
DukeZhou

0

सवाल एक अच्छा है और कई लोगों के दिमाग में है। विचार करने के लिए विचार की पंक्ति में कुछ गलत धारणाएं हैं।

  • मनुष्यों के अलावा अन्य बुद्धिमान मनुष्यों की सर्वोच्चता सभ्यता को खतरा है - क्या उस खतरे की कल्पना तार्किक है? क्या यह तर्कसंगत निष्कर्ष है जब मानव बुद्धि आज जीवमंडल में सबसे अधिक खतरनाक जैविक घटना है। कीड़ों की बुद्धि अधिक टिकाऊ हो सकती है। चींटियों और दीमक की सभ्यताएं निश्चित रूप से अधिक सहयोगी हैं। विश्व युद्ध और नरसंहार मानव इतिहास की प्राथमिक विशेषताओं में से एक हैं।
  • कृत्रिम बुद्धिमत्ता मनुष्यों की तुलना में अधिक बुद्धिमान हो जाती है - कृत्रिम बुद्धि पहले से ही कुछ मामलों में मनुष्यों की तुलना में अधिक बुद्धिमान है, यही कारण है कि हम कैलकुलेटर का उपयोग करते हैं, ऑपरेटरों के बजाय संचार संकेतों के स्वचालित स्विचिंग, और स्वचालित मेल सॉर्टर्स। अन्य तरीकों से, मानव बुद्धि को अनुमानित करने के लिए एआई को खगोलीय दूरी को पार करना होगा। हमारे पास ऐसा कुछ भी नहीं है जो भविष्य में तर्क, आविष्कार, या करुणा की मानवीय क्षमताओं का अनुकरण या नकल करने में सक्षम होने का संकेत भी दिखाता है।
  • विलक्षणता का अनुमान 2040 से है - उन भविष्यवाणियों में एक दर्जन से अधिक अवास्तविक धारणाएं हैं। उनके पीछे के किसी भी तर्क पर आलोचनात्मक दृष्टि से देखें और आप उन छेदों को ठीक कर देंगे जिन्हें आप आंखों पर पट्टी बांधकर 757 में उड़ा सकते थे।
  • ज्ञान में घातीय वृद्धि - सूचना में एक घातीय वृद्धि है, लेकिन वैध रूप से सहकर्मी द्वारा समीक्षा की गई उस जानकारी का अनुपात गलत सूचना, जंगली अनुमान और नकली समाचार वृद्धि के रूप में घट जाता है। मेरा विश्वास है कि दुनिया में जानकारी लॉग (n) द्वारा अनुमानित की जा सकती है, जहां n जनसंख्या है। यदि मैं उस संबंध से ट्रैक करता हूं, तो औसत व्यक्ति का सूचनात्मक मान लॉग (एन) / एन है, जो जनसंख्या बढ़ने के साथ घटता है।
  • AI सर्वज्ञता के लिए सक्षम होगा - Omniscience किसी भी प्रश्न का उत्तर देने से अधिक है। सर्वज्ञता की आवश्यकता होगी कि उत्तर देने वाला 100% विश्वसनीय और 100% सटीक हो, जिसे ब्रह्मांड में मौजूद होने की तुलना में अधिक सिलिकॉन की आवश्यकता हो सकती है। यदि आप यह समझना चाहते हैं कि Gleick का कैओस पढ़ें । कोई यह भी तर्क दे सकता है कि एक सर्वज्ञ आज्ञा पर प्रश्नों का उत्तर नहीं देगा।

यदि आप एक ऐसी दुनिया चाहते हैं जो मानव बुद्धि द्वारा नियंत्रित एक से बेहतर है, तो लेने के लिए एक दिशा एक नई प्रजाति के विकास की तलाश है, जिसमें शांतिपूर्ण सभ्यता की अधिक उन्नत अवधारणा है जो हमें कुत्तों और कुत्तों के साथ किया जा सकता है। बिल्ली की।

आसान रास्ता सिर्फ हम सब के लिए मरना है। हमारे आने से पहले जीवमंडल अधिक सभ्य हो सकता है और सब कुछ और एक दूसरे को मारना शुरू कर दिया। लेकिन यह मेरी आशा नहीं है।

मेरी सिफारिश यह है कि हम NI (गैर-बुद्धिमत्ता) का अध्ययन करते हैं और यह खोजते हैं कि मानव व्यवहार और भू-राजनीतिक बातचीत से क्या बेवकूफी है। यह दुनिया को विचलित करने और काफी हद तक अप्रासंगिक मशीन लर्निंग गैजेट्स और ऐप्स से कहीं अधिक बेहतर होगा।


0

यहाँ कुछ समस्याएं हैं, जिनके बारे में मेरे दिमाग में आया था।

१.स्मार्ट! = सब जानने वाला

एआई आत्म सुधार विस्फोट इसे और अधिक स्मार्ट और स्मार्ट बनाता है। होशियार होने का मतलब अधिक तथ्यों को जानना नहीं है। मुझे लगता है कि यह एक बहुत अच्छा तर्क है, लेकिन मुझे लगता है कि इसके बारे में सोचने लायक है।

एक बहुत ही स्मार्ट डॉक्टर जो आपके इतिहास को नहीं जानता है, वह अभी भी बेहतर डेटा वाले कम बुद्धिमान से बेहतर विकल्प बना सकता है।

2. क्या यह सब इंसानों के लिए है? क्या यह सभी मनुष्यों के लिए है?

एएसआई जो उच्च स्तर तक पहुंचता है, वह हमारी भलाई में दिलचस्पी नहीं ले सकता।

एक नियंत्रित एएसआई अभी भी केवल कुछ के लाभ के लिए काम कर सकता है, अगर ये कुछ गलत लक्ष्य तय करते हैं तो हम पीछे जा सकते हैं।

3 हर्ष ए.एस.आई.

जरूरी नहीं कि सहानुभूति या सहानुभूति से भरा एक वैज्ञानिक मन।

4. होशियार होना और चालाक न होना

महान दिमाग अभी भी गलतियाँ करते हैं: * अपने लक्ष्यों को निर्धारित करने में, और * इसे प्राप्त करने के लिए योजना को क्रियान्वित करने में।

Geat बुद्धि doesn 'की गारंटी shorosightedness की कमी या अंधा धब्बे की कमी।

5. सीमा

यदि अस्तित्व की सीमा (प्रकाश प्रकार की सीमा की गति) है, तो एआई इन के साथ ही बाध्य होगा। इसका मतलब यह हो सकता है कि ऐसी चीजें हैं जो एएसआई को भी नहीं मिलेंगी। इसके अलावा, जैसा कि हमारे दिमाग में इसकी संरचना के आधार पर सीमाएं हो सकती हैं, अगले AI में भी सीमाएं हो सकती हैं - और भले ही यह ऊपर की सीमा में सुधार करती है, सीमाएं मार सकती हैं क्योंकि यह समाधान नहीं ढूंढ सकती क्योंकि यह 'बहुत बेवकूफ' है।

6. हम इसे प्राप्त नहीं करेंगे

एएसआई की दुनिया के कुछ पहलुओं की समझ अधिकांश मनुष्यों के लिए संचारी नहीं हो सकती है। हम इसे प्राप्त नहीं करेंगे (भले ही हम सब कुछ समझने में सक्षम हों, इसका मतलब यह नहीं है कि हम इसे समझेंगे)।

7. इसका उपयोग कैसे करें?

हम खुद को नष्ट कर सकते हैं, और तकनीक के साथ एआई हमें इसे बनाने में मदद करता है। यह बम होने की जरूरत नहीं है। यह जियोइंजीनियरिंग या आश्चर्य की दवाएं हो सकती हैं।

यह विशेष रूप से तीव्र है जब एएसआई पहले से ही शक्तिशाली है लेकिन नकारात्मक परिणामों को दूर करने के लिए पर्याप्त मजबूत नहीं है (या हम इसे वैसे भी अनदेखा कर देंगे)।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.