मैं कंफर्टेबल न्यूरल नेटवर्क के बारे में बहुत कुछ पढ़ता रहा हूं और सोच रहा था कि वे गायब होने वाली ढाल की समस्या से कैसे बचें। मुझे पता है कि गहरे विश्वास वाले नेटवर्क एकल स्तर के ऑटो-एनकोडर या अन्य पूर्व-प्रशिक्षित उथले नेटवर्क को रोकते हैं और इस प्रकार इस समस्या से बच सकते हैं लेकिन मुझे नहीं पता कि यह सीएनएन में कैसे बचा जाता है।
विकिपीडिया के अनुसार :
"उपर्युक्त" लुप्त होने वाली समस्या के बावजूद, "GPU की बेहतर प्रसंस्करण शक्ति कई परतों के साथ गहरे फीडफ़ॉर्मल न्यूरल नेटवर्क के लिए सादा बैक-प्रसार संभव बनाती है।"
मुझे समझ नहीं आता कि GPU प्रसंस्करण इस समस्या को क्यों दूर करेगा?
GPU's are fast correlated with vanishing gradientsकर सकते हैं, मैं कई मैट्रिक्स गुणन को संसाधित करने के लिए बड़ी मेमोरी बैंडविड्थ के साथ तेज तर्क को समझ सकता हूं! लेकिन क्या आप यह बता सकते हैं कि डेरिवेटिव के साथ इसका क्या संबंध है? गायब हो जाने ढाल मुद्दा वजन आरंभीकरण साथ बहुत कुछ करने जा रहा है , यह नहीं है!