सभी आरएनएन में आवर्तक परत में फीडबैक लूप होते हैं। यह उन्हें समय के साथ 'मेमोरी' में जानकारी बनाए रखने देता है। लेकिन, उन समस्याओं को हल करने के लिए मानक आरएनएन को प्रशिक्षित करना मुश्किल हो सकता है जिन्हें दीर्घकालिक अस्थायी निर्भरता सीखने की आवश्यकता होती है। ऐसा इसलिए है क्योंकि समय के साथ नुकसान फ़ंक्शन का ग्रेडिएंट तेजी से घटता है (जिसे वैनिशिंग ग्रेडिएंट समस्या कहा जाता है)। LSTM नेटवर्क RNN का एक प्रकार है जो मानक इकाइयों के अतिरिक्त विशेष इकाइयों का उपयोग करता है। LSTM इकाइयों में एक 'मेमोरी सेल' शामिल होती है जो लंबे समय तक स्मृति में जानकारी बनाए रख सकती है। सूचनाओं की स्मृति में प्रवेश करने पर, नियंत्रण के लिए, जब यह आउटपुट होता है, और जब यह भूल जाता है, तो गेट्स का एक सेट उपयोग किया जाता है। यह वास्तुकला उन्हें लंबे समय तक निर्भरता सीखने देती है। जीआरयू एलएसटीएम के समान हैं, लेकिन एक सरलीकृत संरचना का उपयोग करते हैं।
यह पत्र एक अच्छा अवलोकन देता है:
चुंग एट अल। (2014) । अनुक्रम मॉडलिंग पर गेटेड आवर्तक तंत्रिका नेटवर्क का अनुभवजन्य मूल्यांकन।