हॉपफील्ड नेटवर्क एक वेक्टर स्टोर करने में सक्षम हैं और इसे इसके शोर संस्करण से शुरू करते हुए पुनः प्राप्त करते हैं। वे ऊर्जा फ़ंक्शन को कम करने के लिए वेट सेट करते हैं, जब सभी न्यूरॉन्स वेक्टर मानों के बराबर सेट होते हैं, और इनपुट के रूप में इसके शोर संस्करण का उपयोग करके वेक्टर को पुनः प्राप्त करते हैं और नेट को एक ऊर्जा न्यूनतम पर सेट करने की अनुमति देते हैं।
इस तरह की समस्याओं को छोड़कर कि इस तथ्य की कोई गारंटी नहीं है कि नेट निकटतम न्यूनतम आदि में बस जाएगा - समस्याएं अंततः बोल्ट्जमैन मशीनों के साथ हल हुईं और अंततः बैक-प्रचार के साथ - सफलता वे सार प्रतिनिधित्व करने के लिए एक प्रारंभिक बिंदु थे। एक ही दस्तावेज़ के दो संस्करण एक ही राज्य को याद करेंगे, वे एक ही राज्य द्वारा, नेटवर्क में, प्रतिनिधित्व करेंगे।
जैसा कि होपफील्ड ने स्वयं अपने 1982 के पेपर में तंत्रिका नेटवर्क और भौतिक प्रणालियों के साथ सामूहिक सामूहिक कम्प्यूटेशनल क्षमताओं को लिखा था
वर्तमान मॉडलिंग तब संबंधित हो सकती है कि कैसे एक इकाई या गेस्टाल्ट को याद किया जाता है या इनपुट के आधार पर वर्गीकृत किया जाता है, जो इसकी विशेषताओं के संग्रह का प्रतिनिधित्व करता है।
दूसरी ओर, गहरी सीखने की सफलता इनपुट के कई, पदानुक्रमित प्रतिनिधित्व बनाने की क्षमता थी, अंततः एआई-प्रैक्टिशनर्स के जीवन को आसान बनाने के लिए अग्रणी, फीचर इंजीनियरिंग को सरल बनाना। (उदाहरण के लिए प्रतिनिधि सीखना: एक समीक्षा और नए परिप्रेक्ष्य , बेंगियो, कोर्टविल, विंसेंट)।
एक वैचारिक दृष्टिकोण से, मेरा मानना है कि एक व्यक्ति हॉपफील्ड नेट के सामान्यीकरण के रूप में गहरी शिक्षा को देख सकता है: एक एकल प्रतिनिधित्व से एक प्रतिनिधित्व के पदानुक्रम तक।
क्या यह एक कम्प्यूटेशनल / सामयिक दृष्टिकोण से भी सही है? यह देखते हुए कि "सरल" हॉपफील्ड नेटवर्क कैसे थे (2-राज्य न्यूरॉन्स, अप्रत्यक्ष, ऊर्जा फ़ंक्शन), क्या कोई होपफील्ड नेटवर्क के रूप में नेटवर्क की प्रत्येक परत को देख सकता है और पूरी प्रक्रिया पहले याद किए गए गेस्टाल्ट के अनुक्रमिक निष्कर्षण के रूप में, और पुनर्गठन ये गेस्टाल्ट?