आपके नाम के सभी मुद्दों के लिए एक परिचयात्मक पाठ के रूप में, मैं गहन शिक्षण पुस्तक की सिफारिश करूंगा । यह क्षेत्र का एक व्यापक अवलोकन प्रदान करता है। यह उन मापदंडों में से प्रत्येक की भूमिका निभाता है।
मेरी राय में कुछ सबसे लोकप्रिय आर्किटेक्चर (रेसनेट, इंसेप्शन, एलेक्स-नेट) के बारे में पढ़ना और डिजाइन के फैसले के लिए महत्वपूर्ण विचारों को निकालना बहुत उपयोगी है। उपर्युक्त पुस्तक को पढ़ने के बाद।
आपके द्वारा उल्लिखित व्याख्यानों के पाठ्यक्रम में, यह बहुत विस्तार से बताया गया है कि कैसे संकेंद्रण परत बड़ी संख्या में मापदंडों (भार, पूर्वाग्रह) और न्यूरॉन्स को जोड़ती है। यह परत, एक बार प्रशिक्षित होने के बाद, यह छवि से अर्थ पैटर्न निकालने में सक्षम है। निचली परतों के लिए वे फिल्टर एज एक्सट्रैक्टर्स की तरह दिखते हैं। उच्चतर परतों के लिए, उन आदिम आकृतियों को अधिक जटिल रूपों का वर्णन करने के लिए संयोजित किया जाता है। उन फ़िल्टर में बहुत अधिक पैरामीटर शामिल होते हैं, और जटिल रूपों का वर्णन करने में सक्षम होने के लिए और फिर भी मापदंडों की संख्या को कम करने में सक्षम होने के लिए गहरे नेटवर्क के डिजाइन का एक बड़ा मुद्दा।
चूंकि पड़ोसी पिक्सेल दृढ़ता से सहसंबद्ध होते हैं (विशेष रूप से सबसे निचली परतों में), यह फ़िल्टर प्रतिक्रिया को सबमामलिंग (पूलिंग) द्वारा आउटपुट के आकार को कम करने के लिए समझ में आता है। इसके अलावा दो पिक्सेल एक दूसरे से हैं, कम सहसंबद्ध। इसलिए, पूलिंग परत में एक बड़ा स्ट्राइड उच्च सूचना हानि की ओर जाता है। शिथिल बोल। पूलिंग परत के लिए 2 का स्ट्राइड और कर्नेल आकार 2x2 एक आम पसंद है।
एक अधिक परिष्कृत दृष्टिकोण इंसेप्शन नेटवर्क ( दृढ़ संकल्पों के साथ गहराई में जाना ) है, जहां विचार स्पार्सिटी बढ़ाने के लिए है, लेकिन फिर भी एक उच्च सटीकता प्राप्त करने में सक्षम है, एक दृढ़ परत में मापदंडों की संख्या का व्यापार करके या गहरी नेटवर्क के लिए एक इंसेप्शन मॉड्यूल बनाम।
एक अच्छा पेपर जो वर्तमान आर्किटेक्चर पर संकेत प्रदान करता है और एक संरचित, व्यवस्थित तरीके से डिजाइन आयामों में से कुछ की भूमिका स्क्वीज़नेट है: 50x कम मापदंडों और <0.5 एमबी मॉडल आकार के साथ एलेक्सनेट-स्तरीय सटीकता । यह पहले बताए गए मॉडल में शुरू किए गए विचारों पर बनाता है।