कई गुना सीखने और गैर रेखीय आयामी कमी के बीच अंतर क्या है ?
मैंने इन दोनों शब्दों को परस्पर उपयोग में लाते हुए देखा है। उदाहरण के लिए:
http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html :
मैनिफोल्ड लर्निंग (जिसे अक्सर गैर-रैखिक आयामीता में कमी के रूप में भी संदर्भित किया जाता है) लक्ष्य को डेटा को एम्बेड करने के लिए पीछा करता है जो मूल रूप से एक कम आयामी अंतरिक्ष में एक उच्च आयामी अंतरिक्ष में रहता है, जबकि विशेषता गुणों को संरक्षित करता है।
http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf :
इस ट्यूटोरियल में 'मैनिफोल्ड लर्निंग' और 'डायनेमिकिटी रिडक्शन' का परस्पर उपयोग किया जाता है।
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3337666/ :
डायमेंशनलिटी कम करने के तरीके एल्गोरिदम का एक वर्ग है जो गारंटी वाले सांख्यिकीय सटीकता के भेदभाव नियम को उत्पन्न करने के लिए बहुआयामी वर्गों के सांख्यिकीय नमूने के लिए गणितीय रूप से परिभाषित कई गुना का उपयोग करते हैं।
हालाँकि, http://scikit-learn.org/stable/modules/manifold.html अधिक बारीक है:
मैनिफोल्ड लर्निंग गैर-रैखिक आयामीता में कमी के लिए एक दृष्टिकोण है।
एक पहला अंतर जो मैं देख सकता हूं, वह यह है कि कई गुना रैखिक हो सकता है, इसलिए किसी को गैर-रैखिक कई गुना सीखने और गैर-रैखिक आयामीता में कमी की तुलना करनी चाहिए ।