मुझे लगता है कि कुछ चीजें आपको भ्रमित कर रही हैं, इसलिए पहले चीजें।
x[n]h[n]x[n]h[n]y[n]=(x⋆h)[n]
y[ n ] = ∑म = - ∞∞x [ एम ] एच [ एन - एम ]
ऊपर अगर एक आयामी संकेतों के लिए, लेकिन छवियों के लिए वही कहा जा सकता है, जो केवल दो आयामी संकेत हैं। उस स्थिति में, समीकरण बन जाता है:
मैंएन ई डब्ल्यू[ आर , सी ] = Σu = - ∞∞Σv = - ∞∞मैंओ एल डी[ यू , वी ] के [ आर - यू , सी - वी ]
सच में, यह क्या हो रहा है:
किसी भी दर पर, ध्यान में रखने वाली बात यह है कि कर्नेल , वास्तव में डीप न्यूरल नेटवर्क (DNN) के प्रशिक्षण के दौरान सीखा है । एक कर्नेल बस वह होने जा रहा है जो आप अपने इनपुट के साथ करते हैं। DNN कर्नेल को सीखेगा, जैसे कि यह छवि (या पिछली छवि) के कुछ पहलुओं को सामने लाता है, जो आपके लक्ष्य उद्देश्य के नुकसान को कम करने के लिए अच्छा होगा।
यह समझने का पहला महत्वपूर्ण बिंदु है: परंपरागत रूप से लोगों ने गुठली डिजाइन की है , लेकिन डीप लर्निंग में, हमने नेटवर्क को यह तय करने दिया कि सबसे अच्छा कर्नेल क्या होना चाहिए। हालाँकि हम जो एक बात निर्दिष्ट करते हैं, वह है कर्नेल आयाम। (इसे हाइपरपरमीटर कहा जाता है, उदाहरण के लिए, 5x5, या 3x3, आदि)।