svd पर टैग किए गए जवाब

एक मैट्रिक्स का विलक्षण मूल्य अपघटन (SVD) द्वारा दिया गया है, जहां और ऑर्थोगोनल मेट्रिसेस हैं और एक विकर्ण मैट्रिक्स है। =यूएसवीयूवीएस

3
एसवीडी और पीसीए के बीच संबंध। PCA करने के लिए SVD का उपयोग कैसे करें?
प्रिंसिपल कंपोनेंट एनालिसिस (पीसीए) को आमतौर पर कोवरियन मैट्रिक्स के एक ईजन-अपघटन के माध्यम से समझाया जाता है। हालाँकि, यह डेटा मैट्रिक्स एकवचन मान अपघटन (SVD) के माध्यम से भी किया जा सकता है । यह कैसे काम करता है? इन दोनों दृष्टिकोणों के बीच क्या संबंध है? एसवीडी और …

1
पीसीए को रिवर्स कैसे करें और कई प्रमुख घटकों से मूल चर को फिर से संगठित करें?
प्रिंसिपल कंपोनेंट एनालिसिस (पीसीए) का इस्तेमाल डायमेंशन की कमी के लिए किया जा सकता है। इस तरह की आयामीता में कमी करने के बाद, मूल घटकों / विशेषताओं को कम संख्या में प्रमुख घटकों से कैसे पुन: निर्मित किया जा सकता है? वैकल्पिक रूप से, कोई डेटा से कई प्रमुख …

3
एक उदाहरण: बाइनरी परिणाम के लिए ग्लासो का उपयोग करते हुए LASSO प्रतिगमन
मैं LASSO रिग्रेशन के glmnetसाथ उपयोग करने से वंचित होना शुरू कर रहा हूं, जहां मेरी रुचि के परिणाम द्विगुणित हैं । मैंने नीचे एक छोटा सा नकली डाटा फ्रेम बनाया है: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
एसवीडी के पीछे अंतर्ज्ञान क्या है?
मैंने विलक्षण मूल्य अपघटन (SVD) के बारे में पढ़ा है। लगभग सभी पाठ्यपुस्तकों में यह उल्लेख किया गया है कि यह मैट्रिक्स को दिए गए विनिर्देशन के साथ तीन मैट्रीक में बदल देता है। लेकिन ऐसे रूप में मैट्रिक्स को विभाजित करने के पीछे अंतर्ज्ञान क्या है? पीसीए और अन्य …

1
PCA और पत्राचार Biplot के संबंध में उनके विश्लेषण
Biplot का उपयोग अक्सर मुख्य घटक विश्लेषण (और संबंधित तकनीकों) के परिणामों को प्रदर्शित करने के लिए किया जाता है । यह एक दोहरी या ओवरले स्कैप्लेट है जो एक साथ घटक लोडिंग और घटक स्कोर दिखा रहा है । मैं @amoeba आज द्वारा सूचित किया गया था कि वह …

2
आंशिक कम से कम वर्गों प्रतिगमन के पीछे सिद्धांत
क्या कोई व्यक्ति SVD और PCA को समझने वाले किसी व्यक्ति के लिए आंशिक रूप से कम से कम वर्ग प्रतिगमन (ऑनलाइन उपलब्ध) के पीछे सिद्धांत के एक अच्छे प्रदर्शन की सिफारिश कर सकता है? मैंने कई स्रोतों को ऑनलाइन देखा है और ऐसा कुछ भी नहीं पाया है जिसमें …

1
एक बड़े, विरल मैट्रिक्स पर आयामीता में कमी (SVD या PCA)
/ संपादित करें: आगे का अनुसरण करें अब आप irlba :: prcomp_irlba का उपयोग कर सकते हैं / संपादित करें: मेरी अपनी पोस्ट पर चल रहा है। irlbaअब "केंद्र" और "पैमाने" तर्क हैं, जो आपको सिद्धांत घटकों की गणना करने के लिए इसका उपयोग करते हैं, उदाहरण के लिए: pc …

1
PCA (SVD और eigen अपघटन के लिए) में कैसे अंतर पड़ता है?
PCA के लिए आपका डेटा केंद्रित (या de-meaning) क्या अंतर करता है? मैंने सुना है कि यह गणित को आसान बनाता है या यह पहला पीसी को चर के माध्यम से हावी होने से रोकता है, लेकिन मुझे लगता है कि मैं अभी तक अवधारणा को मजबूती से समझने में …
30 r  pca  svd  eigenvalues  centering 

5
मैं सहयोगी फ़िल्टरिंग में SVD का उपयोग कैसे करूँ?
मैं थोड़ा उलझन में हूँ कि एसवीडी को सहयोगी फ़िल्टरिंग में कैसे उपयोग किया जाता है। मान लीजिए कि मेरे पास एक सामाजिक ग्राफ है, और मैं किनारों से एक आसन्न मैट्रिक्स का निर्माण करता हूं, तो एक एसवीडी ले लो (चलो नियमितीकरण, सीखने की दरों, दुर्लभता अनुकूलन आदि के …

1
सहसंबंधित मैट्रिक्स का SVD एडिटिव होना चाहिए लेकिन ऐसा प्रतीत नहीं होता है
मैं सिर्फ निम्नलिखित पेपर में किए गए दावे को दोहराने की कोशिश कर रहा हूं , जो जीन एक्सप्रेशन डेटा से संबंधित सहसंबंधी बिकलस्टर्स ढूंढ रहा है , जो है: प्रस्ताव 4. अगर । तो हमारे पास हैं:एक्समैंजम्मू= आरमैंसीटीजम्मूएक्समैंजम्मू=आरमैंसीजम्मूटीX_{IJ}=R_{I}C^{T}_{J} मैं। यदि एडिटिव मॉडल के साथ एक सही बाइक्लेस्टर है, तो …

4
एंड्रयू एनएवी एसवीडी का उपयोग करना पसंद करता है और पीसीए करने के लिए सहसंयोजक मैट्रिक्स का ईआईजी नहीं?
मैं एंड्रयू एनए के कसेरा कोर्स और अन्य सामग्रियों से पीसीए का अध्ययन कर रहा हूं। स्टैनफोर्ड एनएलपी कोर्स cs224n के पहले असाइनमेंट में , और एंड्रयू एनजी से लेक्चर वीडियो में , वे कोविरियन मैट्रिक्स के ईजेन्वेक्टर अपघटन के बजाय एकवचन मूल्य अपघटन करते हैं, और एनजी यहां तक …

1
पीसीए के साथ प्राप्त निम्न-रैंक सन्निकटन मैट्रिक्स द्वारा पुनर्निर्माण त्रुटि का क्या मानदंड न्यूनतम है?
मैट्रिक्स के पीसीए (या SVD) सन्निकटन को देखते हुए के साथ एक मैट्रिक्स , हम जानते हैं कि का सबसे अच्छा कम रैंक अनुमान होता है ।एक्स एक्स एक्सXXXX^X^\hat XX^X^\hat XXXX क्या यह प्रेरित मानदंड∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (यानी सबसे बड़ा स्वदेशी मानदंड) के अनुसार या फ्रोबेनियस मानदंड के अनुसार है?∥⋅∥F∥⋅∥F\parallel …

2
पाइथन का स्किट-लर्न एलडीए सही ढंग से काम क्यों नहीं कर रहा है और यह एसवीडी के माध्यम से एलडीए की गणना कैसे करता है?
मैं scikit-learnमशीन लर्निंग लाइब्रेरी (Python) से रैखिक डिस्क्रिमिनेटर एनालिसिस (LDA) का उपयोग आयामी कमी के लिए कर रहा था और परिणामों के बारे में थोड़ा उत्सुक था। मैं अब सोच रहा हूं कि एलडीए क्या scikit-learnकर रहा है ताकि परिणाम अलग दिखें, उदाहरण के लिए, आर में किया गया एक …

2
एक विशाल विरल मैट्रिक्स के एसवीडी की गणना कैसे करें?
एक बहुत बड़े धनात्मक मैट्रिक्स (65M x 3.4M) के एकवचन मान अपघटन (SVD) की गणना करने का सबसे अच्छा तरीका क्या है जहाँ डेटा अत्यंत विरल है? मैट्रिक्स का 0.1% से कम गैर शून्य है। मुझे एक तरीका चाहिए: मेमोरी में फिट होगा (मुझे पता है कि ऑनलाइन तरीके मौजूद …
26 svd  numerics 

7
मैट्रिक्स के स्तंभों के बीच रैखिक निर्भरता के लिए परीक्षण
मेरे पास सुरक्षा रिटर्न का सहसंबंध मैट्रिक्स है जिसका निर्धारक शून्य है। (नमूना सहसंबंध मैट्रिक्स के बाद से यह थोड़ा आश्चर्यजनक है और संबंधित सहसंयोजक मैट्रिक्स सैद्धांतिक रूप से सकारात्मक होना चाहिए।) मेरी परिकल्पना यह है कि कम से कम एक सुरक्षा अन्य प्रतिभूतियों पर रैखिक रूप से निर्भर है। …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.