text-mining पर टैग किए गए जवाब

पैटर्न को पहचानकर पाठ के रूप में डेटा से जानकारी निकालने से संबंधित डेटा खनन के एक सबसेट का संदर्भ देता है। टेक्स्ट माइनिंग का लक्ष्य अक्सर किसी दिए गए दस्तावेज़ को स्वचालित रूप से कई श्रेणियों में वर्गीकृत करना है, और इस प्रदर्शन को गतिशील रूप से सुधारना है, जिससे यह मशीन सीखने का एक उदाहरण है। इस प्रकार के टेक्स्ट माइनिंग का एक उदाहरण ईमेल के लिए उपयोग किए जाने वाले स्पैम फिल्टर हैं।

3
एक उदाहरण: बाइनरी परिणाम के लिए ग्लासो का उपयोग करते हुए LASSO प्रतिगमन
मैं LASSO रिग्रेशन के glmnetसाथ उपयोग करने से वंचित होना शुरू कर रहा हूं, जहां मेरी रुचि के परिणाम द्विगुणित हैं । मैंने नीचे एक छोटा सा नकली डाटा फ्रेम बनाया है: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

2
केरस 'एंबेडिंग' की परत कैसे काम करती है?
केर लाइब्रेरी में 'एंबेडिंग' लेयर के काम को समझने की जरूरत है। मैं पायथन में निम्नलिखित कोड निष्पादित करता हूं import numpy as np from keras.models import Sequential from keras.layers import Embedding model = Sequential() model.add(Embedding(5, 2, input_length=5)) input_array = np.random.randint(5, size=(1, 5)) model.compile('rmsprop', 'mse') output_array = model.predict(input_array) जो निम्न …

6
कैसे (आर में) तार के दो वैक्टर मैच के लिए अर्ध?
मुझे यकीन नहीं है कि इसे कैसे समाप्त किया जाना चाहिए, इसलिए यदि आप बेहतर शब्द जानते हैं तो कृपया मुझे सही करें। मुझे दो सूचियाँ मिली हैं। 55 वस्तुओं में से एक (जैसे: तार का एक सदिश), 92 का दूसरा। आइटम नाम समान हैं, लेकिन समान नहीं हैं। मैं …
36 r  text-mining 

6
पाठ का सांख्यिकीय वर्गीकरण
मैं सांख्यिकीय पृष्ठभूमि के बिना एक प्रोग्रामर हूं, और मैं वर्तमान में बड़ी संख्या में विभिन्न दस्तावेजों के लिए विभिन्न वर्गीकरण विधियों को देख रहा हूं जिन्हें मैं पूर्व-परिभाषित श्रेणियों में वर्गीकृत करना चाहता हूं। मैं केएनएन, एसवीएम और एनएन के बारे में पढ़ रहा हूं। हालाँकि, मुझे कुछ परेशानी …

4
तार सीखने की मशीन सीखने की तकनीक?
मेरे पास बहुत सारे पते हैं: 1600 Pennsylvania Ave, Washington, DC 20500 USA मैं उन्हें अपने घटकों में पार्स करना चाहता हूं: street: 1600 Pennsylvania Ave city: Washington province: DC postcode: 20500 country: USA लेकिन निश्चित रूप से डेटा गंदा है: यह कई देशों से कई भाषाओं में आता है, …

3
आर वर्गीकरण पाठ कार्यों के लिए कितने पैमाने पर है? [बन्द है]
मैं आर के साथ गति प्राप्त करने की कोशिश कर रहा हूं। आखिरकार मैं आर लाइब्रेरी का उपयोग टेक्स्ट वर्गीकरण करने के लिए करना चाहता हूं। मैं बस सोच रहा था कि आर के स्केलेबिलिटी के संबंध में लोगों के अनुभव क्या हैं जब यह पाठ वर्गीकरण करने की बात …

2
भोले बे और बहुपद भोले बे के बीच अंतर
मैंने पहले Naive Bayes क्लासिफायर से निपटा है। मैं हाल ही में मल्टीनोमियल नाइव बेज़ के बारे में पढ़ रहा हूं । इसके अलावा पश्च संभावना = (पूर्व * संभावना) / (साक्ष्य) । केवल मुख्य अंतर (इन क्लासिफ़ायर प्रोग्रामिंग करते समय) मुझे Naive Bayes & Multinomial Naive Bayes के बीच …

4
विषय मॉडलिंग / LDA के लिए R संकुल: सिर्फ `विषय-निर्माता` और` lda` [बंद]
यह मुझे लगता है कि केवल दो आर संकुल अव्यक्त डिरिचलेट आवंटन करने में सक्षम हैं : एक है lda, जोनाथन चांग द्वारा लिखित; और दूसरा topicmodelsबेट्टीना ग्रुन और कर्ट हॉर्निक द्वारा लिखा गया है। प्रदर्शन, कार्यान्वयन विवरण और एक्स्टेंसिबिलिटी के संदर्भ में इन दोनों पैकेजों के बीच क्या अंतर …

1
क्या क्रॉस सत्यापन सत्यापन सेट के लिए एक उचित विकल्प है?
पाठ वर्गीकरण में, मेरे पास लगभग 800 नमूनों के साथ एक प्रशिक्षण सेट है, और लगभग 150 नमूनों के साथ एक परीक्षण सेट है। परीक्षण सेट का उपयोग कभी नहीं किया गया है, और अंत तक उपयोग किए जाने की प्रतीक्षा की जा रही है। मैं पूरे 800 सैंपल ट्रेनिंग …

7
Naive Bayes में, टेस्ट सेट में अज्ञात शब्द होने पर लैप्लस स्मूथिंग से क्यों परेशान होते हैं?
मैं आज Naive Bayes Classification पर पढ़ रहा था। मैं 1 चौरसाई जोड़ने के साथ पैरामीटर अनुमान के शीर्षक के तहत पढ़ता हूं : चलो एक वर्ग (जैसे सकारात्मक या नकारात्मक रूप में) का उल्लेख, और एक टोकन या शब्द का संदर्भ लें।सीसीcwww लिए अधिकतम संभावना अनुमानक isपी( w | …

3
विषय मॉडल और शब्द सह-घटना विधियाँ
एलडीए जैसे लोकप्रिय विषय मॉडल आमतौर पर क्लस्टर शब्द होते हैं जो एक साथ एक ही विषय (क्लस्टर) में होते हैं। इस तरह के विषय मॉडल और अन्य सरल सह-घटना आधारित पीएमआई जैसे क्लस्टरिंग दृष्टिकोणों के बीच मुख्य अंतर क्या है? (पीएमआई का मतलब पॉइंटवाइज म्युचुअल इंफॉर्मेशन से है, और …

2
टेक्स्ट वर्गीकरण के लिए बैग-ऑफ-वर्ड्स: क्यों न केवल TFIDF के बजाय शब्द आवृत्तियों का उपयोग किया जाए?
पाठ वर्गीकरण के लिए एक आम दृष्टिकोण एक 'बैग-ऑफ-वर्ड्स' से एक क्लासिफायरियर को प्रशिक्षित करना है। उपयोगकर्ता पाठ को वर्गीकृत करने के लिए लेता है और प्रत्येक वस्तु में शब्दों की आवृत्तियों को गिनाता है, जिसके बाद किसी प्रकार की ट्रिमिंग होती है जिसके परिणामस्वरूप आकार का मैट्रिक्स बना रहता …

1
भावना विश्लेषण के लिए पैराग्राफ वैक्टर का उपयोग करने के लिए अत्याधुनिक प्रदर्शन की सूचना दी गई है?
मैं Le और मिकोलोव द्वारा ICML 2014 के पेपर " डिस्ट्रक्टेड रिप्रेजेंटेशन ऑफ सेंटेंस एंड डॉक्यूमेंट्स " में परिणामों से प्रभावित हुआ था । जिस तकनीक का वे वर्णन करते हैं, उसे "पैराग्राफ वैक्टर" कहा जाता है, शब्द 2vec मॉडल के विस्तार के आधार पर, मनमाने ढंग से लंबे पैराग्राफ …

3
वर्गीकरण के लिए अर्ध-पर्यवेक्षित शिक्षण, सक्रिय शिक्षण और गहन शिक्षा
अपडेट किए गए सभी संसाधनों के साथ अंतिम संपादन: एक परियोजना के लिए, मैं वर्गीकरण के लिए मशीन लर्निंग एल्गोरिदम लागू कर रहा हूं। चुनौती: सीमित लेबल डेटा और बहुत अधिक अनलिस्टेड डेटा। लक्ष्य: अर्ध-पर्यवेक्षित वर्गीकरण लागू करें किसी तरह अर्ध-पर्यवेक्षित लेबलिंग प्रक्रिया लागू करें (सक्रिय शिक्षण के रूप में …

2
प्राकृतिक भाषा प्रसंस्करण मशीन लर्निंग डोमेन के अंतर्गत क्यों नहीं आता है? [बन्द है]
जैसा कि वर्तमान में खड़ा है, यह प्रश्न हमारे प्रश्नोत्तर प्रारूप के लिए एक अच्छा फिट नहीं है। हम तथ्यों, संदर्भों या विशेषज्ञता के आधार पर उत्तर दिए जाने की अपेक्षा करते हैं, लेकिन इस सवाल पर बहस, बहस, मतदान या विस्तारित चर्चा की संभावना होगी। यदि आपको लगता है …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.