नियमितीकरण की विधि
निम्नलिखित 4 तकनीकों के लिए, L1 नियमितीकरण और L2 नियमितीकरण यह कहने की आवश्यकता नहीं है कि वे नियमितीकरण की एक विधि होनी चाहिए। वे वजन को सिकोड़ते हैं। यदि वजन अधिक महत्व रखता है तो L1 कम मात्रा में वजन को कम करने पर ध्यान केंद्रित करेगा।
ड्रॉपआउट अस्थायी रूप से न्यूरॉन्स को छोड़ने के द्वारा ओवरफिटिंग को रोकता है। आखिरकार, यह एक औसत के रूप में सभी वजन की गणना करता है ताकि किसी विशेष न्यूरॉन के लिए वजन बहुत बड़ा न हो और इसलिए यह नियमितीकरण की एक विधि है।
बैच सामान्यीकरण नियमितीकरण का एक तरीका नहीं होना चाहिए क्योंकि इसका मुख्य उद्देश्य एक बैच का चयन करके प्रशिक्षण को गति देना है और वजन को 0 के पास वितरित करने के लिए मजबूर करना है, बहुत बड़ा नहीं, बहुत छोटा नहीं।
इसे चुनना
मेरे लिए, मिनी-बैच बहुत जरूरी है क्योंकि यह प्रक्रिया को गति दे सकता है और हर बार नेटवर्क के प्रदर्शन में सुधार कर सकता है।
L1 और L2 दोनों समान हैं और मैं L1 को छोटे नेटवर्क में पसंद करूंगा।
आदर्श रूप से, ड्रॉपआउट लागू होना चाहिए यदि कोई बड़ी भिन्नता समस्या या ओवरफिटिंग है।
अंतिम लेकिन कम से कम नहीं, मैं नील स्लेटर से सहमत हूं कि यह स्थिति पर निर्भर करता है और एक इष्टतम समाधान कभी नहीं होगा।
मैं आपको आगे की जानकारी के लिए इसे पढ़ने की सलाह देता हूं। यह एक बहुत अच्छी सामग्री है। http://neuralnetworksanddeeplearning.com/chap3.html