word-embeddings पर टैग किए गए जवाब

शब्द एम्बेडिंग एनएलपी में भाषा मॉडलिंग और फीचर लर्निंग तकनीकों के एक समूह का सामूहिक नाम है, जहां शब्द कम आयाम वाले स्थान पर वास्तविक संख्या के वैक्टर के लिए मैप किए जाते हैं, जो शब्दावली आकार के सापेक्ष है।

2
तंत्रिका नेटवर्क में एक एम्बेडिंग परत क्या है?
कई तंत्रिका नेटवर्क पुस्तकालयों में, 'एम्बेडिंग लेयर्स' होते हैं, जैसे कि केर या लासगैन में । मुझे यकीन नहीं है कि मैं प्रलेखन पढ़ने के बावजूद, इसके कार्य को समझता हूं। उदाहरण के लिए, केरस प्रलेखन में यह कहा गया है: धनात्मक पूर्णांक (इंडेक्स) को निश्चित आकार के denses vectors …

2
केरस 'एंबेडिंग' की परत कैसे काम करती है?
केर लाइब्रेरी में 'एंबेडिंग' लेयर के काम को समझने की जरूरत है। मैं पायथन में निम्नलिखित कोड निष्पादित करता हूं import numpy as np from keras.models import Sequential from keras.layers import Embedding model = Sequential() model.add(Embedding(5, 2, input_length=5)) input_array = np.random.randint(5, size=(1, 5)) model.compile('rmsprop', 'mse') output_array = model.predict(input_array) जो निम्न …

3
फीचर वेक्टर पाने के लिए, पूरे दस्तावेज़ में शब्द एम्बेडिंग लागू करें
मैं पर्यवेक्षित सीखने के साथ उपयोग के लिए उपयुक्त एक फीचर वेक्टर में दस्तावेज़ को मैप करने के लिए एम्बेडिंग शब्द का उपयोग कैसे करूं? एक शब्द प्रत्येक शब्द को एक वेक्टर v , R d में मैप करता है , जहां d कुछ नॉट -बहुत-बड़ी संख्या (जैसे, 500) है। …

1
क्या मुझे उपयोग करने से पहले word2vec के शब्द वैक्टर को सामान्य करना चाहिए?
शब्द 2vec के साथ शब्द वैक्टर को प्रशिक्षित करने के बाद, कुछ डाउनस्ट्रीम अनुप्रयोगों के लिए उपयोग करने से पहले उन्हें सामान्य करना बेहतर है? यानी उन्हें सामान्य बनाने के पक्ष / विपक्ष क्या हैं?

3
आर: रैंडम फ़ॉरेस्ट NaN / Inf को "विदेशी फ़ंक्शन कॉल" त्रुटि के बावजूद NaN के डेटासेट में बंद नहीं किया गया [बंद]
बन्द है। यह सवाल ऑफ टॉपिक है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? प्रश्न को अपडेट करें ताकि यह क्रॉस मान्य के लिए विषय पर हो । 2 साल पहले बंद हुआ । मैं एक डेटासेट पर एक क्रॉस वेरिफाइड …

1
भावना विश्लेषण के लिए पैराग्राफ वैक्टर का उपयोग करने के लिए अत्याधुनिक प्रदर्शन की सूचना दी गई है?
मैं Le और मिकोलोव द्वारा ICML 2014 के पेपर " डिस्ट्रक्टेड रिप्रेजेंटेशन ऑफ सेंटेंस एंड डॉक्यूमेंट्स " में परिणामों से प्रभावित हुआ था । जिस तकनीक का वे वर्णन करते हैं, उसे "पैराग्राफ वैक्टर" कहा जाता है, शब्द 2vec मॉडल के विस्तार के आधार पर, मनमाने ढंग से लंबे पैराग्राफ …

1
Word2vec में नकारात्मक नमूना कैसे काम करता है?
मैं शब्द 2vec के संदर्भ में नकारात्मक नमूनाकरण की अवधारणा को समझने का कठिन प्रयास कर रहा हूं। मैं [नकारात्मक] नमूने के विचार को पचाने में असमर्थ हूं। उदाहरण के लिए मिकोलोव के कागजात में नकारात्मक नमूनाकरण अपेक्षा के रूप में तैयार किया गया है logσ(⟨w,c⟩)+k⋅EcN∼PD[logσ(−⟨w,cN⟩)].log⁡σ(⟨w,c⟩)+k⋅EcN∼PD[log⁡σ(−⟨w,cN⟩)].\log \sigma(\langle w,c\rangle ) + …

3
सीबीओडब्ल्यू की तुलना में असंगत शब्दों के लिए स्किप-ग्राम बेहतर क्यों है?
मुझे आश्चर्य है कि शब्द 2vec में CBOW की तुलना में असंगत शब्दों के लिए स्किप-ग्राम बेहतर क्यों है। मैंने https://code.google.com/p/word2vec/ पर दावा पढ़ा है ।

2
कैसे एम्बेडिंग परत को केरस एम्बेडिंग परत में प्रशिक्षित किया जाता है
केरस एम्बेडिंग लेयर में एंबेडिंग लेयर को कैसे प्रशिक्षित किया जाता है? (टेंसरफ़्लो बैकएंड का उपयोग करते हुए कहते हैं, इसका अर्थ शब्द 2vec, दस्ताने या फास्टटेक्स के समान है) मान लें कि हम एक प्रीटेंडेड एम्बेडिंग का उपयोग नहीं करते हैं।

3
क्यों अनैतिक शब्दों के लिए पदानुक्रमित सॉफ्टमैक्स बेहतर है, जबकि नकारात्मक नमूना लगातार शब्दों के लिए बेहतर है?
मुझे आश्चर्य है कि पदानुक्रमित सॉफ्टमैक्स, असंगत शब्दों के लिए बेहतर क्यों है, जबकि नकारात्मक नमूने लगातार शब्दों के लिए, वर्डवेव के सीबीओओ और स्किप-ग्राम मॉडल में बेहतर है। मैंने https://code.google.com/p/word2vec/ पर दावा पढ़ा है ।

3
Word2Vec का स्किप-ग्राम मॉडल आउटपुट वैक्टर कैसे उत्पन्न करता है?
मुझे Word2Vec एल्गोरिथ्म के स्किप-ग्राम मॉडल को समझने में समस्या हो रही है। निरंतर बैग में शब्दों को देखना आसान है कि संदर्भ शब्द तंत्रिका नेटवर्क में "फिट" कैसे हो सकते हैं, क्योंकि आप मूल रूप से इनपुट मैट्रिक्स डब्ल्यू के साथ एक-गर्म एन्कोडिंग अभ्यावेदन के प्रत्येक को गुणा करने …

1
प्रदर्शन के संदर्भ में शब्द एम्बेडिंग एल्गोरिदम
मैं एक वेक्टर अंतरिक्ष में लगभग 60 मिलियन वाक्यांशों को एम्बेड करने की कोशिश कर रहा हूं , फिर उनके बीच कॉशन समानता की गणना करें। मैं sklearn का उपयोग कर रहा हूँ CountVectorizerएक कस्टम निर्मित tokenizer फ़ंक्शन जो unigrams और bigrams का उत्पादन करता है। यह बताता है कि …

2
आयामों को कम करने के लिए टी-एसएनई के मापदंडों का निर्धारण कैसे करें?
मैं शब्द एम्बेडिंग के लिए बहुत नया हूँ। मैं कल्पना करना चाहता हूं कि दस्तावेज सीखने के बाद कैसे दिख रहे हैं। मैंने पढ़ा कि t-SNE इसे करने का तरीका है। मेरे पास एम्बेडिंग के आकार के रूप में 250 आयामों के साथ 100K दस्तावेज़ हैं। कई पैकेज भी उपलब्ध …

1
SVD से पहले एक शब्द समरूपता मैट्रिक्स पर बिंदुवार पारस्परिक जानकारी लागू करने के पेशेवरों और विपक्ष क्या हैं?
शब्द एम्बेडिंग उत्पन्न करने का एक तरीका इस प्रकार है ( दर्पण ): एक कॉर्पोरा प्राप्त करें, उदाहरण के लिए "मुझे उड़ान का आनंद मिलता है। मुझे एनएलपी पसंद है। मुझे गहरी शिक्षा पसंद है।" इससे शब्द cooccurrence मैट्रिक्स बनाएँ: XXX पर SVD का प्रदर्शन करें , और U के …

2
शब्दों के निरंतर थैले के बारे में प्रश्न
मुझे इस वाक्य को समझने में परेशानी हो रही है: पहला प्रस्तावित आर्किटेक्चर फीडफोर्वर्ड एनएनएलएम के समान है, जहां गैर-लीनियर छिपी हुई परत को हटा दिया जाता है और सभी शब्दों के लिए प्रोजेक्शन लेयर को साझा किया जाता है (न केवल प्रोजेक्शन मैट्रिक्स); इस प्रकार, सभी शब्द एक ही …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.