हमें ऑटोचेनडर्स की आवश्यकता क्यों है?


17

हाल ही में, मैं ऑटोएन्कोडर्स का अध्ययन कर रहा हूं। अगर मुझे सही तरीके से समझा जाए, तो एक ऑटोएन्कोडर एक तंत्रिका नेटवर्क है जहां इनपुट परत आउटपुट परत के समान है। इसलिए, तंत्रिका नेटवर्क इनपुट का उपयोग करके आउटपुट का अनुमान लगाने की कोशिश करता है, क्योंकि यह गोल्डन स्टैंडर्ड है।

इस मॉडल की उपयोगिता क्या है? कुछ आउटपुट तत्वों को फिर से बनाने की कोशिश करने के क्या लाभ हैं, उन्हें इनपुट तत्वों के समान संभव बनाना है? एक ही प्रारंभिक बिंदु पर पहुंचने के लिए किसी को इस सभी मशीनरी का उपयोग क्यों करना चाहिए?

जवाबों:


17

ऑटो एनकोडर में एक इनपुट लेयर, हिडन लेयर और एक आउटपुट लेयर होती है। इनपुट को आउटपुट के समान होने के लिए मजबूर किया जाता है, इसलिए इसकी छिपी हुई परत जिसे हम रुचि रखते हैं।

छिपी हुई परत इनपुट के एक प्रकार के एन्कोडिंग का निर्माण करती है। "डेटा के एक सेट के लिए एक ऑटो-एनकोडर का उद्देश्य एक संकुचित, वितरित प्रतिनिधित्व (एन्कोडिंग) सीखना है।" यदि इनपुट 100 आयामी वेक्टर है, और आपके पास छिपी हुई परत में 60 न्यूरॉन्स हैं, तो ऑटो एनकोडर एल्गोरिदम इनपुट को आउटपुट लेयर में 100 डायमेंशनल वेक्टर के रूप में दोहराएगा, इस प्रक्रिया में आपको 60 डायमेंशनल वेक्टर देता है जो आपके इनपुट को एनकोड करता है। ।

इसलिए ऑटो एनकोडर का उद्देश्य कई अन्य लोगों के बीच आयामीता में कमी है।


धन्यवाद @ मधाूलिका, शायद मैं समझ गया हूँ। एल्गोरिथ्म निम्नानुसार काम करता है: इसमें एक इनपुट परत होती है, यह तंत्रिका नेटवर्क को प्रशिक्षित करता है ताकि इनपुट परत के समान आउटपुट लेयर हो। इसकी तुलना में आउटपुट परत के साथ इनपुट लेयर की तुलना की जाती है, और यदि वे अलग-अलग हैं, तो यह तंत्रिका नेटवर्क को फिर से प्रशिक्षित करता है। यह रुकता है जब वे समान होते हैं। जब यह खत्म हो जाता है, तो हम अंतिम छिपी हुई परत को इनपुट परत के सर्वश्रेष्ठ आयामीता में कमी के रूप में लेते हैं, और हमें किसी भी लक्ष्य के लिए इसका उपयोग करना चाहिए। क्या ये सही है?
लैरी

हाँ, तुम उस सही हो गया। :) इस पर कुछ और साहित्य पढ़ें।
मधुलिका मुखर्जी

5

यह आपकी आबादी को भी मॉडल कर सकता है ताकि जब आप एक नया वेक्टर इनपुट करते हैं, तो आप जांच सकें कि इनपुट से आउटपुट कितना अलग है। यदि वे "समान" हैं, तो आप मान सकते हैं कि इनपुट आबादी से मेल खाता है। यदि वे "काफी" भिन्न हैं, तो संभवतः इनपुट आपके द्वारा मॉडलिंग की गई जनसंख्या से संबंधित नहीं है।

मैं इसे "न्यूरल नेटवर्क द्वारा प्रतिगमन" के एक प्रकार के रूप में देखता हूं जहां आप अपने डेटा का वर्णन करने वाले फ़ंक्शन का प्रयास करते हैं: इसका आउटपुट इनपुट के समान है।


3

हो सकता है ये तस्वीरें आपको कुछ अंतर्ज्ञान दे दें। जैसा कि ऊपर टिप्पणीकार ने कहा कि ऑटो एनकोडर प्रशिक्षण के उदाहरणों से कुछ उच्च स्तरीय विशेषताओं को निकालने की कोशिश करते हैं। आप देख सकते हैं कि दूसरी तस्वीर पर गहरे एनएन के लिए प्रत्येक छिपे हुए स्तर को अलग से प्रशिक्षित करने के लिए प्रैग्नॉस्टिकेशन एल्गोरिदम का उपयोग कैसे किया जाता है।

यहाँ छवि विवरण दर्ज करें

यहाँ छवि विवरण दर्ज करें

तस्वीरें रूसी विकिपीडिया से ली गई हैं।


2
चित्रों के लिए टिप्पणी उपयोगी होगी।
टिम
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.