हाल ही में, हमने अवशिष्ट तंत्रिका नेट के उद्भव को देखा, जिसमें, प्रत्येक परत में एक कम्प्यूटेशनल मॉड्यूल और एक शॉर्टकट कनेक्शन होता है, जो परत को इनपुट को संरक्षित करता है जैसे कि ith लेयर का आउटपुट प्रदर्शित करता है: नेटवर्क अवशिष्ट सुविधाओं को निकालने की अनुमति देता है और गायब होने वाली ढाल समस्या के लिए और अधिक मजबूत होने की अनुमति देता है, कला प्रदर्शन की स्थिति को प्राप्त करता है।
ग्रैडिएंट बूस्टिंग में तल्लीन होने के बाद , मशीन सीखने की दुनिया में एक बहुत ही शक्तिशाली पहनावा तकनीक, जो नुकसान के अवशिष्ट पर ढाल अनुकूलन का एक रूप प्रदर्शन करने के लिए भी लगता है, इसकी समानता के कुछ रूप को देखने के लिए मुश्किल नहीं है।
मुझे पता है कि वे समान हैं, लेकिन समान नहीं हैं - मैंने देखा कि एक बड़ा अंतर यह है कि ढाल बढ़ाने वाला एडिटिव टर्म पर अनुकूलन करता है जबकि अवशिष्ट शुद्ध, पूरे नेटवर्क का अनुकूलन करता है।
मैंने यह नहीं देखा कि वह अपने मूल पेपर में अपनी प्रेरणा के हिस्से के रूप में इसे नोट करता है । इसलिए मैं सोच रहा था कि इस विषय पर आपकी अंतर्दृष्टि क्या है और पूछें कि आपके पास दिलचस्प संसाधन हैं जो आपके पास हैं।
धन्यवाद।