मतभेदों को ढूंढकर मॉडल को देखा जा सकता है। पहले विरल कोडिंग पर नजर डालते हैं।
स्पार्स कोडिंग
विरल कोडिंग उद्देश्य
जहां एक आधार का मैट्रिक्स है, H कोड का एक मैट्रिक्स है और उस डेटा का एक मैट्रिक्स है जिसका हम प्रतिनिधित्व करना चाहते हैं। स्पार्सिटी और पुनर्निर्माण के बीच एक व्यापार को लागू करता है। ध्यान दें कि यदि हमें दिया जाता है , तो का अनुमान कम से कम वर्गों के माध्यम से आसान है। डब्ल्यूएक्सλएचडब्ल्यू
Lsc=||WH−X||22reconstruction term+λ||H||1sparsity term
WXλHW
शुरुआत में, हमारे पास हालांकि नहीं है । फिर भी, कई एल्गोरिदम मौजूद हैं जो संबंध में उपरोक्त उद्देश्य को हल कर सकते हैं । वास्तव में, यह है कि हम किस तरह से अनुमान लगाते हैं: हमें एक अनुकूलन समस्या को हल करने की आवश्यकता है यदि हम एक अनदेखी से संबंधित जानना चाहते हैं ।एच एच एक्सHHhx
ऑटो में सवार
ऑटो एनकोडर असुरक्षित तंत्रिका नेटवर्क का एक परिवार है। उनमें से बहुत सारे हैं, उदाहरण के लिए गहरे ऑटो एनकोडर या जिनके पास अलग-अलग नियमितीकरण चालें जुड़ी हुई हैं - जैसे कि निंदात्मक, संकुचनशील, विरल। यहां तक कि संभाव्य अस्तित्व भी हैं, जैसे कि जेनरिक स्टोचस्टिक नेटवर्क या वैरिएबल ऑटो एनकोडर। उनका सबसे अमूर्त रूप है
लेकिन हम अभी के लिए एक बहुत ही सरल के साथ जाएंगे:
जहां एक nonlinear फंक्शन है जैसे कि लॉजिस्टिक सिग्मोइड ।
D(d(e(x;θr);θd),x)
Lae=||Wσ(WTX)−X||2
σσ(x)=11+exp(−x)
समानताएँ
ध्यान दें कि जब हम सेट करते हैं तो लगभग तरह दिखता है । दोनों का अंतर यह है कि i) ऑटो एनकोडर अपने सामान्य रूप में स्पार्सिटी को प्रोत्साहित नहीं करते हैं ii) एक ऑटोएन्कोडर कोड खोजने के लिए एक मॉडल का उपयोग करता है, जबकि स्पार्स कोडिंग अनुकूलन के माध्यम से ऐसा करता है।LscLaeH=σ(WTX)
प्राकृतिक छवि डेटा के लिए, नियमित रूप से ऑटो एनकोडर और विरल कोडिंग बहुत समान उपज देते हैं । हालांकि, ऑटो एनकोडर बहुत अधिक कुशल हैं और आसानी से बहुत अधिक जटिल मॉडल के लिए सामान्यीकृत हैं। जैसे डिकोडर अत्यधिक नॉनलाइनर हो सकता है, उदाहरण के लिए एक गहरा तंत्रिका नेटवर्क। इसके अलावा, एक चुकता नुकसान से बंधा नहीं है (जिस पर लिए निर्भर है।)WWLsc
इसके अलावा, नियमितिकरण के विभिन्न तरीके अलग-अलग चरित्रवादी के साथ उपज का प्रतिनिधित्व करते हैं। ऑटो एनकोडर को अस्वीकार करना भी आरबीएम आदि के एक निश्चित रूप के बराबर दिखाया गया है।
पर क्यों?
यदि आप एक भविष्यवाणी समस्या को हल करना चाहते हैं, तो आपको ऑटो एनकोडर की आवश्यकता नहीं होगी जब तक कि आपके पास केवल लेबल किए गए डेटा और बहुत सारे अनलेब किए गए डेटा न हों। फिर आप आम तौर पर एक गहरे ऑटो एनकोडर को प्रशिक्षित करने और एक गहरे तंत्रिका जाल को प्रशिक्षित करने के बजाय शीर्ष पर एक रैखिक एसवीएम डालेंगे।
हालांकि, वे वितरण के चरित्रवादी पर कब्जा करने के लिए बहुत शक्तिशाली मॉडल हैं। यह अस्पष्ट है, लेकिन वर्तमान में इसे कठिन सांख्यिकीय तथ्यों में बदल दिया गया है। डीप लेटेंट गॉसियन मॉडल उर्फ वेरिएशनल ऑटो एनकोडर या जेनेरिक स्टोचस्टिक नेटवर्क ऑटो एनकोडर प्राप्त करने के बहुत ही रोचक तरीके हैं जो अंतर्निहित डेटा वितरण का अनुमान लगाने में सक्षम हैं।