कल्पना कीजिए कि आप एक तंत्रिका नेटवर्क को 100 बार एक शेर की तस्वीर दिखाते हैं और "खतरनाक" के साथ लेबल करते हैं, इसलिए यह सीखता है कि शेर खतरनाक हैं।
अब कल्पना कीजिए कि पहले आपने इसे शेरों की लाखों छवियों को दिखाया है और वैकल्पिक रूप से इसे "खतरनाक" और "खतरनाक नहीं" के रूप में लेबल किया है, जैसे कि शेर के खतरनाक होने की संभावना 50% है।
लेकिन उन पिछले 100 बार ने शेर के बारे में "खतरनाक" के रूप में तंत्रिका नेटवर्क को बहुत सकारात्मक होने पर धकेल दिया है, इस प्रकार पिछले मिलियन सबक को अनदेखा कर रहा है।
इसलिए, ऐसा लगता है कि तंत्रिका नेटवर्क में एक दोष है, जिसमें वे हाल के साक्ष्यों के आधार पर अपने दिमाग को बहुत जल्दी बदल सकते हैं। खासकर अगर वह पिछला साक्ष्य बीच में था।
क्या एक तंत्रिका नेटवर्क मॉडल है जो इस बात का ट्रैक रखता है कि उसने कितने साक्ष्य देखे हैं? (या यह सीखने की दर को से कम करने के बराबर होगा जहां परीक्षण की संख्या है?)