dimensionality-reduction पर टैग किए गए जवाब

जहां तक ​​संभव हो डेटा के बारे में अधिक से अधिक जानकारी को संरक्षित करते हुए बड़ी संख्या में चर या आयामों को डेटा द्वारा कम करने के लिए तकनीकों का संदर्भ देता है। प्रमुख विधियों में पीसीए, एमडीएस, आइसोमैप आदि शामिल हैं। तकनीकों के दो मुख्य उपवर्ग: सुविधा निष्कर्षण और सुविधा चयन।

3
पीसीए बहुत धीमी है जब दोनों n, p बड़े हैं: विकल्प?
समस्या सेटअप मेरे पास उच्च आयाम (4096) के डेटा पॉइंट (चित्र) हैं, जिन्हें मैं 2 डी में कल्पना करने की कोशिश कर रहा हूं। यह अंत करने के लिए, मैं Karpathy द्वारा निम्नलिखित उदाहरण कोड के समान तरीके से t-sne का उपयोग कर रहा हूं । Scikit सीखने प्रलेखन पहली …

1
कई गुना सीखने और गैर रेखीय आयामी कमी के बीच अंतर क्या है?
कई गुना सीखने और गैर रेखीय आयामी कमी के बीच अंतर क्या है ? मैंने इन दोनों शब्दों को परस्पर उपयोग में लाते हुए देखा है। उदाहरण के लिए: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : मैनिफोल्ड लर्निंग (जिसे अक्सर गैर-रैखिक आयामीता में कमी के रूप में भी संदर्भित किया जाता है) लक्ष्य को डेटा …

2
आइसक्रीम बिक्री बनाम तापमान के इस पीसीए भूखंड को समझना
मैं तापमान बनाम आइसक्रीम की बिक्री का एक डमी डेटा ले रहा हूं और 2 श्रेणियों (पूरी तरह से डमी) को अलग करने के लिए के मीन्स (एन क्लस्टर्स = 2) का उपयोग करके इसे वर्गीकृत किया गया है। अब मैं इस डेटा पर एक प्रिंसिपल कंपोनेंट एनालिसिस कर रहा …

2
स्केलेबल आयाम में कमी
विशेषताओं की संख्या को ध्यान में रखते हुए, बार्न्स-हट टी-एसएनई में एक जटिलता है , यादृच्छिक अनुमानों और पीसीए में की एक जटिलता है जो उन्हें बहुत बड़े डेटा सेटों के लिए "सस्ती" बनाती है।O(nlogn)O(nlog⁡n)O(n\log n)O(n)O(n)O(n) दूसरी ओर, पर निर्भर तरीकों बहुआयामी स्केलिंग एक है जटिलता।O(n2)O(n2)O(n^2) क्या अन्य आयाम में …

1
इस ऑटोएन्कोडर नेटवर्क फ़ंक्शन को ठीक से नहीं बना सकते हैं (विस्मय और अधिकतम परतों के साथ)
Autoencoder नेटवर्क को सामान्य क्लासिफायर MLP नेटवर्क की तुलना में अधिक पेचीदा लगता है। Lasagne का उपयोग करने के कई प्रयासों के बाद, जो मुझे पुन: निर्मित आउटपुट में प्राप्त होता है, वह कुछ ऐसा है जो एमएनआईएसटीटी डेटाबेस की सभी छवियों का एक धुँधली औसत से मिलता-जुलता है, जो …

2
कैसे साबित करें कि कई गुना धारणा सही है?
मशीन लर्निंग में, यह अक्सर माना जाता है कि एक डेटा सेट एक चिकनी कम-आयामी कई गुना (कई गुना धारणा) पर है, लेकिन क्या यह साबित करने का कोई तरीका है कि कुछ शर्तों को संतुष्ट किया जाता है, तो डेटा सेट वास्तव में (लगभग) उत्पन्न होता है। एक कम …

3
क्या ICA को पहले PCA चलाने की आवश्यकता है?
मैंने एक एप्लिकेशन-आधारित पेपर की समीक्षा करते हुए कहा कि ICA (फास्टिका पैकेज का उपयोग करके) लागू करने से पहले पीसीए को लागू करना। मेरा सवाल यह है कि क्या ICA (फास्टिका) को पहले पीसीए चलाने की आवश्यकता है? इस पत्र में उल्लेख किया गया है कि ... यह भी …

4
पीसीए के अनुरूप गैर-ऑर्थोगोनल तकनीक
मान लीजिए कि मेरे पास एक 2D बिंदु डेटासेट है और मैं उदाहरण के लिए, डेटा में सभी स्थानीय मैक्सिमा के निर्देशों का पता लगाना चाहता हूं: पीसीए इस स्थिति में मदद नहीं करता है क्योंकि यह एक ऑर्थोगोनल अपघटन है और इसलिए दोनों रेखाओं को मैं नीले रंग में …

2
पीसीए या कारक विश्लेषण में तिरछा चर
मैं 22 चर पर आधारित SPSS पर प्रमुख घटक विश्लेषण (कारक विश्लेषण) करना चाहता हूं। हालाँकि, मेरे कुछ चर बहुत तिरछे हैं (एसपीएसएस से गणना की गई तिरछी दूरी 2-80 तक है!)। तो यहाँ मेरे सवाल हैं: क्या मुझे तिरछे चरों को वैसा ही रखना चाहिए या क्या मैं मुख्य …


1
आयामी कमी / बहुआयामी स्केलिंग के परिणामों की व्याख्या कैसे करें?
मैंने एक एसवीडी अपघटन और 6-आयामी डेटा मैट्रिक्स के बहुआयामी स्केलिंग दोनों का प्रदर्शन किया, ताकि डेटा की संरचना की बेहतर समझ प्राप्त हो सके। दुर्भाग्य से, सभी एकवचन मान एक ही क्रम के हैं, जिसका अर्थ है कि डेटा की गतिशीलता वास्तव में 6 है। हालांकि, मैं एकवचन वैक्टर …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.