मैं कंफर्टेबल न्यूरल नेटवर्क के बारे में बहुत कुछ पढ़ता रहा हूं और सोच रहा था कि वे गायब होने वाली ढाल की समस्या से कैसे बचें। मुझे पता है कि गहरे विश्वास वाले नेटवर्क एकल स्तर के ऑटो-एनकोडर या अन्य पूर्व-प्रशिक्षित उथले नेटवर्क को रोकते हैं और इस प्रकार इस समस्या से बच सकते हैं लेकिन मुझे नहीं पता कि यह सीएनएन में कैसे बचा जाता है।
विकिपीडिया के अनुसार :
"उपर्युक्त" लुप्त होने वाली समस्या के बावजूद, "GPU की बेहतर प्रसंस्करण शक्ति कई परतों के साथ गहरे फीडफ़ॉर्मल न्यूरल नेटवर्क के लिए सादा बैक-प्रसार संभव बनाती है।"
मुझे समझ नहीं आता कि GPU प्रसंस्करण इस समस्या को क्यों दूर करेगा?
GPU's are fast correlated with vanishing gradients
कर सकते हैं, मैं कई मैट्रिक्स गुणन को संसाधित करने के लिए बड़ी मेमोरी बैंडविड्थ के साथ तेज तर्क को समझ सकता हूं! लेकिन क्या आप यह बता सकते हैं कि डेरिवेटिव के साथ इसका क्या संबंध है? गायब हो जाने ढाल मुद्दा वजन आरंभीकरण साथ बहुत कुछ करने जा रहा है , यह नहीं है!