natural-language पर टैग किए गए जवाब

प्राकृतिक भाषा प्रसंस्करण भाषा विज्ञान, कृत्रिम बुद्धि, मशीन सीखने और सांख्यिकी से तकनीकों का एक सेट है जो मानव भाषाओं को प्रसंस्करण और समझने का उद्देश्य है।

3
आवर्तक बनाम पुनरावर्ती तंत्रिका नेटवर्क: जो एनएलपी के लिए बेहतर है?
आवर्तक तंत्रिका नेटवर्क और पुनरावर्ती तंत्रिका नेटवर्क हैं। दोनों को आमतौर पर एक ही संक्षिप्त नाम से दर्शाया जाता है: आरएनएन। विकिपीडिया के अनुसार , आवर्तक एनएन वास्तव में पुनरावर्ती एनएन हैं, लेकिन मैं वास्तव में स्पष्टीकरण को नहीं समझता हूं। इसके अलावा, मुझे ऐसा नहीं लगता कि प्राकृतिक भाषा …

7
शुरुआती के लिए तंत्रिका नेटवर्क संदर्भ (पाठ्यपुस्तक, ऑनलाइन पाठ्यक्रम)
मैं न्यूरल नेटवर्क सीखना चाहता हूं। मैं एक कम्प्यूटेशनल भाषाविद् हूं। मुझे पता है कि सांख्यिकीय मशीन सीखने के दृष्टिकोण और पायथन में कोड कर सकते हैं। मैं इसकी अवधारणाओं के साथ शुरू करना चाहता हूं, और एक या दो लोकप्रिय मॉडल जानता हूं जो कम्प्यूटेशनल भाषाविज्ञान के दृष्टिकोण से …

5
LDA vs word2vec
मैं यह समझने की कोशिश कर रहा हूं कि शब्द समानता की गणना के लिए लेटेंट डिरिक्लेट आवंटन और शब्द 2vec में क्या समानता है। जैसा कि मैं समझता हूं, LDA अव्यक्त विषयों की संभावनाओं की एक सदिश के लिए शब्दों को मैप करता है , जबकि word2vec उन्हें वास्तविक …

3
फीचर वेक्टर पाने के लिए, पूरे दस्तावेज़ में शब्द एम्बेडिंग लागू करें
मैं पर्यवेक्षित सीखने के साथ उपयोग के लिए उपयुक्त एक फीचर वेक्टर में दस्तावेज़ को मैप करने के लिए एम्बेडिंग शब्द का उपयोग कैसे करूं? एक शब्द प्रत्येक शब्द को एक वेक्टर v , R d में मैप करता है , जहां d कुछ नॉट -बहुत-बड़ी संख्या (जैसे, 500) है। …

1
क्या मुझे उपयोग करने से पहले word2vec के शब्द वैक्टर को सामान्य करना चाहिए?
शब्द 2vec के साथ शब्द वैक्टर को प्रशिक्षित करने के बाद, कुछ डाउनस्ट्रीम अनुप्रयोगों के लिए उपयोग करने से पहले उन्हें सामान्य करना बेहतर है? यानी उन्हें सामान्य बनाने के पक्ष / विपक्ष क्या हैं?

3
छिपे हुए मार्कोव मॉडल और सशर्त यादृच्छिक क्षेत्रों के बीच सहज अंतर
मैं समझता हूं कि एचएमएम (हिडन मार्कोव मॉडल) जेनेरेटिव मॉडल हैं, और सीआरएफ भेदभावपूर्ण मॉडल हैं। मैं यह भी समझता हूं कि CRF (कंडिशनल रैंडम फील्ड्स) कैसे डिजाइन और उपयोग किए जाते हैं। मुझे समझ में नहीं आता कि वे एचएमएम से कैसे अलग हैं? मैंने पढ़ा है कि एचएमएम …

3
आर: रैंडम फ़ॉरेस्ट NaN / Inf को "विदेशी फ़ंक्शन कॉल" त्रुटि के बावजूद NaN के डेटासेट में बंद नहीं किया गया [बंद]
बन्द है। यह सवाल ऑफ टॉपिक है । यह वर्तमान में उत्तर स्वीकार नहीं कर रहा है। इस प्रश्न को सुधारना चाहते हैं? प्रश्न को अपडेट करें ताकि यह क्रॉस मान्य के लिए विषय पर हो । 2 साल पहले बंद हुआ । मैं एक डेटासेट पर एक क्रॉस वेरिफाइड …

2
क्या cosine समानता l2- सामान्यीकृत यूक्लिडियन दूरी के समान है?
सामान्य अर्थ, कि यह वेक्टर यू और वैक्टर V के सेट के बीच समानता रैंकिंग के लिए समान परिणाम देगा । मेरे पास एक वेक्टर स्पेस मॉडल है जिसमें मापदंडों के रूप में दूरी माप (यूक्लिडियन दूरी, कोसाइन समानता) और सामान्यीकरण तकनीक (कोई नहीं, एल 1, एल 2) है। मेरी …

3
विषय मॉडल और शब्द सह-घटना विधियाँ
एलडीए जैसे लोकप्रिय विषय मॉडल आमतौर पर क्लस्टर शब्द होते हैं जो एक साथ एक ही विषय (क्लस्टर) में होते हैं। इस तरह के विषय मॉडल और अन्य सरल सह-घटना आधारित पीएमआई जैसे क्लस्टरिंग दृष्टिकोणों के बीच मुख्य अंतर क्या है? (पीएमआई का मतलब पॉइंटवाइज म्युचुअल इंफॉर्मेशन से है, और …

1
भावना विश्लेषण के लिए पैराग्राफ वैक्टर का उपयोग करने के लिए अत्याधुनिक प्रदर्शन की सूचना दी गई है?
मैं Le और मिकोलोव द्वारा ICML 2014 के पेपर " डिस्ट्रक्टेड रिप्रेजेंटेशन ऑफ सेंटेंस एंड डॉक्यूमेंट्स " में परिणामों से प्रभावित हुआ था । जिस तकनीक का वे वर्णन करते हैं, उसे "पैराग्राफ वैक्टर" कहा जाता है, शब्द 2vec मॉडल के विस्तार के आधार पर, मनमाने ढंग से लंबे पैराग्राफ …

3
सीबीओडब्ल्यू की तुलना में असंगत शब्दों के लिए स्किप-ग्राम बेहतर क्यों है?
मुझे आश्चर्य है कि शब्द 2vec में CBOW की तुलना में असंगत शब्दों के लिए स्किप-ग्राम बेहतर क्यों है। मैंने https://code.google.com/p/word2vec/ पर दावा पढ़ा है ।

2
प्राकृतिक भाषा प्रसंस्करण मशीन लर्निंग डोमेन के अंतर्गत क्यों नहीं आता है? [बन्द है]
जैसा कि वर्तमान में खड़ा है, यह प्रश्न हमारे प्रश्नोत्तर प्रारूप के लिए एक अच्छा फिट नहीं है। हम तथ्यों, संदर्भों या विशेषज्ञता के आधार पर उत्तर दिए जाने की अपेक्षा करते हैं, लेकिन इस सवाल पर बहस, बहस, मतदान या विस्तारित चर्चा की संभावना होगी। यदि आपको लगता है …

3
Kneser-Ney चौरसाई में, अनदेखी शब्दों को कैसे संभाला जाता है?
मैंने जो देखा है, उससे (दूसरे क्रम का) कांसर-ने स्मूचिंग फॉर्मूला किसी तरह या किसी अन्य रूप में दिया गया है P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} सामान्यीकरण कारक रूप में दिया गयाλ(wn−1)λ(wn−1)\lambda(w_{n-1}) λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} …

3
लघु दस्तावेजों के लिए विषय
इस सवाल से प्रेरित होकर , मैं सोच रहा हूं कि क्या किसी भी विषय पर बहुत छोटे ग्रंथों के बड़े संग्रह के लिए कोई काम किया गया है। मेरा अंतर्ज्ञान यह है कि ट्विटर को इस तरह के मॉडल के लिए एक प्राकृतिक प्रेरणा होना चाहिए। हालांकि, कुछ सीमित …

2
क्या n- ग्राम प्रतिप्रकारक होते हैं?
प्राकृतिक भाषा प्रसंस्करण करते समय, कोई कॉर्पस ले सकता है और एन के अनुक्रम में होने वाले अगले शब्द की संभावना का मूल्यांकन कर सकता है। n को आमतौर पर 2 या 3 (बिगोग्राम और ट्रिगर्स) के रूप में चुना जाता है। क्या एक ज्ञात बिंदु है जिस पर nth …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.