एक दिलचस्प विकल्प तंत्रिका-आधारित आयामीता कमी की खोज करना होगा। आयामीता में कमी के लिए सबसे अधिक इस्तेमाल किया जाने वाला प्रकार का नेटवर्क, ऑटोएन्कोडर, को _ मैथोकल की लागत पर प्रशिक्षित किया जा सकता है , जहां प्रशिक्षण पुनरावृत्तियों का प्रतिनिधित्व करता (यह एक हाइपर-पैरामीटर है जो प्रशिक्षण डेटा से स्वतंत्र है) । इसलिए, प्रशिक्षण जटिलता को सरल बनाती है ।O(i⋅n)iO(n)
आप 2006 के सेमिनार के काम पर एक नज़र डालकर हिंटन और सलाखुद्दीनोव [1] से शुरुआत कर सकते हैं। तब से, चीजें बहुत विकसित हुई हैं। अब अधिकांश अत्याधिक परिवर्तन वैरिएंट ऑटोकेनोडर्स [2] द्वारा प्राप्त कर लिए जाते हैं, लेकिन मूल विचार (एक नेटवर्क जो इनपुट आउटपुट को इसके बीच में अड़चन परत के साथ पुनर्निर्मित करता है) समान रहता है। ध्यान दें कि, पीसीए और आरपी के विपरीत, ऑटोएन्कोडर्स नॉनलाइनियर डायमेंशन में कमी करते हैं। इसके अलावा, टी-एसएनई के विपरीत, ऑटोकारोडर्स पूरे मॉडल को वापस लेने की आवश्यकता के बिना अनदेखी नमूने बदल सकते हैं।
व्यावहारिक पक्ष पर, मैं इस पोस्ट पर एक नज़र डालते हुए फिर से देखता हूं , जो कि अद्भुत पुस्तकालय केर के साथ विभिन्न प्रकार के ऑटोकेनोडर्स को लागू करने के बारे में विवरण देता है।
[१] हिंटन, जीई, और सलाखुद्दीनोव, आरआर (२००६)। तंत्रिका नेटवर्क के साथ डेटा की गतिशीलता को कम करना। विज्ञान, 313 (5786), 504-507।
[२] किंग्मा, डीपी, और वेलिंग, एम। (२०१३)। ऑटो-एन्कोडिंग वैरिएबल बे। arXiv प्रीप्रिंट arXiv: 1312.6114।