डीप लर्निंग (डीएल) और डीप (एर) नेटवर्क से जुड़ी हर चीज "सफल" लगती है, कम से कम बहुत तेजी से प्रगति कर रही है, और विश्वास है कि एजीआई पहुंच रही है। यह लोकप्रिय कल्पना है। एजीआई के निर्माण सहित कई समस्याओं से निपटने के लिए डीएल एक जबरदस्त उपकरण है। हालांकि यह पर्याप्त नहीं है। एक उपकरण एक आवश्यक घटक है, लेकिन अक्सर अपर्याप्त है।
डोमेन में अग्रणी आंकड़े प्रगति करने के लिए कहीं और देख रहे हैं। यह रिपोर्ट / दावा योशुआ बेंगियो , यान लेकन और ज्योफ हिंटन के बयानों के लिंक एकत्र करता है । रिपोर्ट यह भी बताती है:
डीएल की मुख्य कमजोरियां (जैसा कि मैं उन्हें देखता हूं) हैं: सबसे सरल संभव मॉडल न्यूरॉन्स पर निर्भरता ("कार्टून" जैसा कि LeCun उन्हें कहता है); 19 वीं शताब्दी के सांख्यिकीय यांत्रिकी और सांख्यिकी से विचारों का उपयोग, जो ऊर्जा कार्यों और लॉग-लाइबिलिटी विधियों का आधार हैं; और बैकप्रॉप और स्टोकेस्टिक ग्रेडिएंट वंश जैसी तकनीकों में इनका संयोजन, आवेदन के एक बहुत ही सीमित शासन के लिए अग्रणी (ऑफ़लाइन, अधिकतर बैच, पर्यवेक्षण सीखने), अत्यधिक प्रतिभाशाली चिकित्सकों की आवश्यकता (उर्फ "स्टैथस्टिक ग्रेजुएट डिसेंट"), बड़ी मात्रा में महंगी। लेबल प्रशिक्षण डेटा और कम्प्यूटेशनल शक्ति। जबकि विशाल कंपनियों के लिए महान, जो प्रतिभा को लुभाने या खरीदने और डेटा इकट्ठा करने के लिए असीमित संसाधनों को तैनात कर सकते हैं और इसे क्रंच कर सकते हैं, डीएल न तो हम में से अधिकांश के लिए सुलभ और न ही उपयोगी है।
यद्यपि दिलचस्प और प्रासंगिक है, इस तरह की व्याख्या वास्तव में समस्या के सार को संबोधित नहीं करती है: क्या कमी है?
प्रश्न व्यापक लगता है, लेकिन यह एक सरल उत्तर की कमी से हो सकता है। क्या पिन को इंगित करने का एक तरीका है कि एजीआई के लिए डीएल की क्या कमी है?