मैंने ओवर-फिटिंग को नियंत्रित करने के लिए एक दृष्टिकोण के रूप में नियमितीकरण के बारे में सीखा है, और मैं बैकप्रॉपगैशन और मल्टीलेयर परसेप्ट्रॉन (एमएलपी) के एक सरल कार्यान्वयन में विचार को शामिल करना चाहूंगा ।
वर्तमान में ओवर-फिटिंग से बचने के लिए, मैं क्रॉस-वेलिडेट करता हूं और सत्यापन सेट पर अब तक के सर्वश्रेष्ठ स्कोर के साथ नेटवर्क रखता हूं। यह ठीक काम करता है, लेकिन नियमितिकरण को जोड़ने से मुझे नियमितीकरण एल्गोरिथ्म के उस सही विकल्प में लाभ होगा और पैरामीटर मेरे नेटवर्क को गैर-ओवरफिट मॉडल पर अधिक व्यवस्थित रूप से परिवर्तित कर देगा।
अद्यतन शब्द के लिए मेरे पास सूत्र (कौरसेरा एमएल कोर्स से) प्रत्येक वजन के लिए एक बैच अपडेट के रूप में कहा गया है, त्रुटि प्रसार से सेट पूरे प्रशिक्षण के लिए सभी लागू डेल्टास को समेटने के बाद, lambda * current_weight
संयुक्त से पहले एक समायोजन जोड़ा जाता है। डेल्टा को बैच के अंत में घटाया जाता है, जहां lambda
नियमितीकरण पैरामीटर है।
बैकप्रोपेगेशन के मेरे कार्यान्वयन में प्रति-आइटम वजन अपडेट का उपयोग किया जाता है। मुझे चिंता है कि मैं सिर्फ बैच दृष्टिकोण की नकल नहीं कर सकता, हालांकि यह मेरे लिए ठीक है। क्या नियमित रूप से प्रति आइटम एक छोटा सा नियमितीकरण शब्द भी काम करता है?
उदाहरण के लिए, lambda * current_weight / N
जहां N प्रशिक्षण सेट का आकार है - पहली नज़र में यह उचित लगता है। हालांकि मुझे इस विषय पर कुछ भी नहीं मिला, और मुझे आश्चर्य है कि अगर ऐसा है क्योंकि नियमितीकरण एक प्रति-आइटम अपडेट के साथ भी काम नहीं करता है, या यहां तक कि एक अलग नाम या परिवर्तित सूत्र के तहत भी जाता है।