आर्टिफिशियल इंटेलिजेंस पर रोक की समस्या क्या है, यदि कोई हो, तो क्या सीमा है?


जवाबों:


9

क्या हॉल्टिंग की समस्या मानवीय संज्ञान पर कोई सीमा है?

हां, बिलकुल - कि एक ऐसे कोड के टुकड़े हैं जिन्हें एक मानव देख सकता है और निश्चित नहीं है कि यह परिमित समय में रुकेगा या नहीं। (निश्चित रूप से ऐसे कोड हैं जो एक मानव देख सकते हैं और कह सकते हैं कि "हां" या "नहीं" निश्चित रूप से, लेकिन हम उन लोगों के बारे में बात कर रहे हैं जो वास्तव में विश्लेषण करना काफी कठिन हैं।)

रुकने की समस्या का मतलब है कि कोड विश्लेषण के प्रकार हैं जो कोई कंप्यूटर नहीं कर सकता है, क्योंकि यह गणितीय रूप से असंभव है। लेकिन मजबूत कृत्रिम बुद्धिमत्ता (कोड के अर्थ में जो खुद को बेहतर बनाने के लिए खुद को अच्छी तरह से समझ सकता है) की अनुमति देने के लिए संभावना का क्षेत्र अभी भी काफी बड़ा है।


हॉल्टिंग समस्या का मतलब है कि कोई भी (परिमित) विधि यह तय नहीं कर सकती है कि कोई कार्यक्रम परिमित समय पर रुकेगा या नहीं। इसका मतलब यह नहीं है कि ऐसी समस्याएं हैं जिन्हें हल नहीं किया जा सकता है (जो निश्चित रूप से मौजूद हैं लेकिन कारण आमतौर पर अलग-अलग हैं)
kakaz

12

हॉल्टिंग समस्या एक सामान्य घटना का एक उदाहरण है जिसे अनडिसीडेबिलिटी के रूप में जाना जाता है , जो यह दर्शाता है कि ऐसी समस्याएं हैं जो ट्यूरिंग मशीन समय पर हल नहीं कर सकती हैं। आइए इस सामान्यीकरण पर विचार करें कि यह अपरिहार्य है कि क्या ट्यूरिंग मशीन चावल की प्रमेय नामक कुछ गैर-तुच्छ संपत्ति पी को संतुष्ट करती है या नहीं ।

पहले ध्यान दें कि ट्यूरिंग मशीन केवल लंबे समय तक इनपुट लेने पर हॉल्टिंग समस्या लागू होती है। यदि इनपुट बंधे हुए हैं, तो सभी संभव मामलों की गणना करना संभव है और समस्या अब भी कम नहीं है। इसकी गणना करना अभी भी अक्षम हो सकता है, लेकिन फिर हम जटिलता सिद्धांत की ओर मुड़ रहे हैं, जो एक अलग प्रश्न होना चाहिए।

राइस प्रमेय का अर्थ है कि एक बुद्धि (एक मानव) यह निर्धारित करने में सक्षम नहीं हो सकता है कि एक और खुफिया (जैसे कि एजीआई) के पास एक निश्चित संपत्ति है, जैसे कि अनुकूल । इसका मतलब यह नहीं है कि हम एक अनुकूल एजीआई डिजाइन नहीं कर सकते हैं, लेकिन इसका मतलब यह है कि हम जांच नहीं कर सकते हैं कि क्या एक एजीआई अनुकूल है। इसलिए, जब हम संभवतः एक एआई बना सकते हैं जो कि अनुकूल होने की गारंटी है, तो हमें यह भी सुनिश्चित करने की आवश्यकता है कि आईटी एक और एआई नहीं बना सकता है जो कि अमित्र है।


मैंने एक नए प्रश्न के लिए क्वांटम प्रश्न पहलू को तोड़ दिया है: ai.stackexchange.com/q/186/55
WilliamKF
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.