language-models पर टैग किए गए जवाब

3
Kneser-Ney चौरसाई में, अनदेखी शब्दों को कैसे संभाला जाता है?
मैंने जो देखा है, उससे (दूसरे क्रम का) कांसर-ने स्मूचिंग फॉर्मूला किसी तरह या किसी अन्य रूप में दिया गया है P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} सामान्यीकरण कारक रूप में दिया गयाλ(wn−1)λ(wn−1)\lambda(w_{n-1}) λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} …

1
SVD से पहले एक शब्द समरूपता मैट्रिक्स पर बिंदुवार पारस्परिक जानकारी लागू करने के पेशेवरों और विपक्ष क्या हैं?
शब्द एम्बेडिंग उत्पन्न करने का एक तरीका इस प्रकार है ( दर्पण ): एक कॉर्पोरा प्राप्त करें, उदाहरण के लिए "मुझे उड़ान का आनंद मिलता है। मुझे एनएलपी पसंद है। मुझे गहरी शिक्षा पसंद है।" इससे शब्द cooccurrence मैट्रिक्स बनाएँ: XXX पर SVD का प्रदर्शन करें , और U के …

2
शब्दों के निरंतर थैले के बारे में प्रश्न
मुझे इस वाक्य को समझने में परेशानी हो रही है: पहला प्रस्तावित आर्किटेक्चर फीडफोर्वर्ड एनएनएलएम के समान है, जहां गैर-लीनियर छिपी हुई परत को हटा दिया जाता है और सभी शब्दों के लिए प्रोजेक्शन लेयर को साझा किया जाता है (न केवल प्रोजेक्शन मैट्रिक्स); इस प्रकार, सभी शब्द एक ही …

3
टेक्स्ट दस्तावेज़ के लिए फीचर वेक्टर बनाने के लिए बिग्राम (एन-ग्राम) मॉडल का उपयोग करने के बारे में
टेक्स्ट माइनिंग के लिए फीचर निर्माण का एक पारंपरिक तरीका बैग-ऑफ-वर्ड्स दृष्टिकोण है, और किसी दिए गए टेक्स्ट डॉक्यूमेंट की विशेषता वाले वेक्टर की स्थापना के लिए tf-idf का उपयोग करके इसे बढ़ाया जा सकता है। वर्तमान में, मैं फ़ीचर वेक्टर के निर्माण के लिए द्वि-ग्राम भाषा मॉडल या (एन-ग्राम) …
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.