ट्यूरिंग मशीनों के लिए साबित होने वाली समस्या को देखते हुए , क्या हम मजबूत आर्टिफिशियल इंटेलिजेंस की क्षमता पर सीमा लगा सकते हैं?
ट्यूरिंग मशीनों के लिए साबित होने वाली समस्या को देखते हुए , क्या हम मजबूत आर्टिफिशियल इंटेलिजेंस की क्षमता पर सीमा लगा सकते हैं?
जवाबों:
क्या हॉल्टिंग की समस्या मानवीय संज्ञान पर कोई सीमा है?
हां, बिलकुल - कि एक ऐसे कोड के टुकड़े हैं जिन्हें एक मानव देख सकता है और निश्चित नहीं है कि यह परिमित समय में रुकेगा या नहीं। (निश्चित रूप से ऐसे कोड हैं जो एक मानव देख सकते हैं और कह सकते हैं कि "हां" या "नहीं" निश्चित रूप से, लेकिन हम उन लोगों के बारे में बात कर रहे हैं जो वास्तव में विश्लेषण करना काफी कठिन हैं।)
रुकने की समस्या का मतलब है कि कोड विश्लेषण के प्रकार हैं जो कोई कंप्यूटर नहीं कर सकता है, क्योंकि यह गणितीय रूप से असंभव है। लेकिन मजबूत कृत्रिम बुद्धिमत्ता (कोड के अर्थ में जो खुद को बेहतर बनाने के लिए खुद को अच्छी तरह से समझ सकता है) की अनुमति देने के लिए संभावना का क्षेत्र अभी भी काफी बड़ा है।
हॉल्टिंग समस्या एक सामान्य घटना का एक उदाहरण है जिसे अनडिसीडेबिलिटी के रूप में जाना जाता है , जो यह दर्शाता है कि ऐसी समस्याएं हैं जो ट्यूरिंग मशीन समय पर हल नहीं कर सकती हैं। आइए इस सामान्यीकरण पर विचार करें कि यह अपरिहार्य है कि क्या ट्यूरिंग मशीन चावल की प्रमेय नामक कुछ गैर-तुच्छ संपत्ति पी को संतुष्ट करती है या नहीं ।
पहले ध्यान दें कि ट्यूरिंग मशीन केवल लंबे समय तक इनपुट लेने पर हॉल्टिंग समस्या लागू होती है। यदि इनपुट बंधे हुए हैं, तो सभी संभव मामलों की गणना करना संभव है और समस्या अब भी कम नहीं है। इसकी गणना करना अभी भी अक्षम हो सकता है, लेकिन फिर हम जटिलता सिद्धांत की ओर मुड़ रहे हैं, जो एक अलग प्रश्न होना चाहिए।
राइस प्रमेय का अर्थ है कि एक बुद्धि (एक मानव) यह निर्धारित करने में सक्षम नहीं हो सकता है कि एक और खुफिया (जैसे कि एजीआई) के पास एक निश्चित संपत्ति है, जैसे कि अनुकूल । इसका मतलब यह नहीं है कि हम एक अनुकूल एजीआई डिजाइन नहीं कर सकते हैं, लेकिन इसका मतलब यह है कि हम जांच नहीं कर सकते हैं कि क्या एक एजीआई अनुकूल है। इसलिए, जब हम संभवतः एक एआई बना सकते हैं जो कि अनुकूल होने की गारंटी है, तो हमें यह भी सुनिश्चित करने की आवश्यकता है कि आईटी एक और एआई नहीं बना सकता है जो कि अमित्र है।