कोई एआई भाषा कैसे सीखेगा?


11

मैं एआई के बारे में सोच रहा था और वे कैसे काम करेंगे, जब मुझे एहसास हुआ कि मैं इस तरह से नहीं सोच सकता कि एआई को भाषा सिखाई जा सके। एक बच्चा भाषा और चित्रों के माध्यम से भाषा को एक वस्तु के रूप में जानने के लिए जाता है (उदाहरण के लिए, लोग कुत्ते के चारों ओर "कुत्ता" शब्द कहते हैं, और बाद में एहसास होता है कि लोग "कुत्ता" और "एक कार" कहते हैं और सीखते हैं कि क्या " "का अर्थ है, आदि)। हालाँकि, एक पाठ आधारित AI इस पद्धति का उपयोग सीखने के लिए नहीं कर सकता है, क्योंकि उनके पास किसी भी प्रकार के इनपुट डिवाइस तक पहुंच नहीं होगी।

एक ही तरीका है कि मैं हर शब्द में प्रोग्रामिंग कर सकता हूं, और नियम, अंग्रेजी भाषा में (या जो भी भाषा meant बोलने ’के लिए होती है), हालांकि, संभवतः, ऐसा करने में वर्षों लगेंगे।

क्या किसी के पास कोई विचार है कि यह कैसे किया जा सकता है? या अगर यह पहले से ही किया गया है, यदि ऐसा है तो कैसे?

वैसे, इस संदर्भ में, मैं AI का उपयोग कर रहा हूं जिसका अर्थ है कि मानव-बुद्धि के साथ एक आर्टिफिशियल इंटेलिजेंस सिस्टम, और भाषा का कोई पूर्व ज्ञान नहीं।

जवाबों:


12

सामान्य अनुसंधान क्षेत्र को व्याकरण प्रेरण के रूप में जाना जाता है ।

यह आम तौर पर एक पर्यवेक्षित सीखने की समस्या के रूप में तैयार किया जाता है, कच्चे पाठ के रूप में प्रस्तुत इनपुट के साथ, और वांछित आउटपुट इसी पार्स ट्री । प्रशिक्षण सेट में अक्सर सकारात्मक और नकारात्मक दोनों उदाहरण होते हैं।

इसे प्राप्त करने के लिए कोई सबसे अच्छी विधि नहीं है, लेकिन इनमें से कुछ तकनीकों का आज तक उपयोग किया जाता है:


6

आपकी समस्या के लिए छाता शब्द कहा जाता है प्राकृतिक भाषा प्रसंस्करण (एनएलपी) - कृत्रिम बुद्धि के तहत एक विषय।

इस क्षेत्र में कई शब्द हैं, जिनमें भाषा शब्दार्थ, व्याकरणिक विश्लेषण, भाषण टैगिंग के कुछ भाग, डोमेन विशिष्ट विवरण विश्लेषण आदि शामिल हैं।


5

पूर्णता के लिए, मैं बताता हूं कि आवर्तक भाषा प्रसंस्करण (एनएलपी) के लिए आवर्तक तंत्रिका जाल (यानी पीछे की ओर कनेक्शन वाले तंत्रिका जाल) का उपयोग अक्सर किया जाता है। इसमें बिडायरेक्शनल, जॉर्डन और एलमैन नेटवर्क जैसे वेरिएंट शामिल हैं। लॉन्ग शॉर्ट-टर्म मेमोरी (LSTM) एक अधिक परिष्कृत तंत्रिका शुद्ध एल्गोरिथ्म है जो एक ही समय और अनुक्रम-आधारित कार्यों को पूरा कर सकता है, लेकिन जो बैकप्रॉप जैसी मानक शिक्षण विधियों का लाभ उठा सकता है क्योंकि यह "लुप्त होने वाली ढाल समस्या" से ग्रस्त नहीं है। ऐसा इसलिए है क्योंकि LSTM को शानदार ढंग से "पूर्ण इंटीग्रेटर्स" के रूप में इंजीनियर किया गया है, जो लंबे समय तक त्रुटि ग्रेडिएंट्स आदि की गणना करना बहुत आसान बनाता है। इसके विपरीत, आरएनएन के साथ सीखना अभी भी सैद्धांतिक रूप से अच्छी तरह से आधारित नहीं है और मौजूदा तरीकों जैसे कि बैकप्रोपेगेशन थ्रू टाइम (बीपीटीटी) के माध्यम से गणना करना मुश्किल है। टाइम डिले न्यूरल नेटवर्क्स (टीडीएनएन) में, विचार नए न्यूरॉन्स और कनेक्शन को जोड़ने के लिए है, जो समय या प्रशिक्षण अनुक्रम के प्रत्येक नए प्रशिक्षण उदाहरण के साथ है; दुर्भाग्य से, यह एक व्यावहारिक सीमा रखता है कि नेटवर्क के आकार से बाहर निकलने से पहले आप कितने उदाहरणों में नेट में फीड कर सकते हैं या यह आरएनएन की तरह ही भूलने लगता है। LSTM में बहुत लंबी यादें हैं (विशेषकर जब न्यूरल ट्यूरिंग मशीन के साथ संवर्धित) तो यह मेरी पहली पसंद होगी, यह मानते हुए कि मैं एनएलपी प्रयोजनों के लिए तंत्रिका जाल का उपयोग करना चाहता था। विषय का मेरा ज्ञान सीमित है (हालांकि मैं अभी भी रस्सियों को सीखने की कोशिश कर रहा हूं) इसलिए अन्य महत्वपूर्ण तंत्रिका नेट एल्गोरिदम हो सकता है जो मैं देख रहा हूं ...

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.