कई गुना सीखने और गैर रेखीय आयामी कमी के बीच अंतर क्या है?


9

कई गुना सीखने और गैर रेखीय आयामी कमी के बीच अंतर क्या है ?


मैंने इन दोनों शब्दों को परस्पर उपयोग में लाते हुए देखा है। उदाहरण के लिए:

http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html :

मैनिफोल्ड लर्निंग (जिसे अक्सर गैर-रैखिक आयामीता में कमी के रूप में भी संदर्भित किया जाता है) लक्ष्य को डेटा को एम्बेड करने के लिए पीछा करता है जो मूल रूप से एक कम आयामी अंतरिक्ष में एक उच्च आयामी अंतरिक्ष में रहता है, जबकि विशेषता गुणों को संरक्षित करता है।

http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf :

इस ट्यूटोरियल में 'मैनिफोल्ड लर्निंग' और 'डायनेमिकिटी रिडक्शन' का परस्पर उपयोग किया जाता है।

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3337666/ :

डायमेंशनलिटी कम करने के तरीके एल्गोरिदम का एक वर्ग है जो गारंटी वाले सांख्यिकीय सटीकता के भेदभाव नियम को उत्पन्न करने के लिए बहुआयामी वर्गों के सांख्यिकीय नमूने के लिए गणितीय रूप से परिभाषित कई गुना का उपयोग करते हैं।

हालाँकि, http://scikit-learn.org/stable/modules/manifold.html अधिक बारीक है:

मैनिफोल्ड लर्निंग गैर-रैखिक आयामीता में कमी के लिए एक दृष्टिकोण है।

एक पहला अंतर जो मैं देख सकता हूं, वह यह है कि कई गुना रैखिक हो सकता है, इसलिए किसी को गैर-रैखिक कई गुना सीखने और गैर-रैखिक आयामीता में कमी की तुलना करनी चाहिए ।

जवाबों:


4

गैर-रैखिक आयामीता में कमी तब होती है जब कमी के लिए उपयोग की जाने वाली विधि यह मानती है कि जिस पर अव्यक्त चर झूठ बोल रहे हैं, ठीक है ... गैर-रैखिक।

तो रैखिक तरीकों के लिए कई गुना गैर-रेखीय तरीकों के लिए एक एन-आयामी विमान, यानी एफाइन सतह है, यह नहीं है।

"मैनिफोल्ड लर्निंग" शब्द का अर्थ आमतौर पर ज्यामितीय / टोपोलॉजिकल तरीके हैं जो गैर-रैखिक कई गुना सीखते हैं।

इसलिए हम गैर-रैखिक आयामीता कमी विधियों के सबसेट के रूप में कई गुना सीखने के बारे में सोच सकते हैं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.