मैंने कुछ महीने पहले कौरसेरा के माध्यम से एंड्रयू एनजी के पाठ्यक्रम "मशीन लर्निंग" को लिया, अधिकांश गणित / व्युत्पत्तियों पर ध्यान नहीं दिया और इसके बजाय कार्यान्वयन और व्यावहारिकता पर ध्यान केंद्रित किया। तब से मैंने कुछ अंतर्निहित सिद्धांत का अध्ययन करने के लिए वापस जाना शुरू कर दिया है, और प्रो.एन.जी के कुछ व्याख्यानों पर फिर से विचार किया है। मैं "नियमित रूप से रैखिक प्रतिगमन" पर उनके व्याख्यान के माध्यम से पढ़ रहा था, और देखा कि उन्होंने निम्नलिखित लागत समारोह दिया:
फिर, वह इस लागत समारोह के लिए निम्नलिखित ढाल देता है:
मैं थोड़ा उलझन में हूं कि वह एक से दूसरे में कैसे पहुंचता है। जब मैंने अपना स्वयं का व्युत्पत्ति करने की कोशिश की, तो मुझे निम्नलिखित परिणाम मिले:
यह अंतर मूल लागत समारोह और प्रो। एन.जी के फार्मूले में नियमितीकरण पैरामीटर के बीच 'प्लस' का संकेत है, जो उनके ग्रेडिएंट फ़ंक्शन में 'माइनस' संकेत में बदल रहा है, जबकि मेरे परिणाम में ऐसा नहीं हो रहा है।
सहज रूप से मैं समझता हूं कि यह नकारात्मक क्यों है: हम ढाल के आधार पर थीटा पैरामीटर को कम कर रहे हैं, और हम नियमितता पैरामीटर को उस राशि को कम करना चाहते हैं जिसे हम ओवरफिटिंग से बचने के लिए पैरामीटर बदल रहे हैं। मैं केवल पथरी पर थोड़ा अटक गया हूं जो इस अंतर्ज्ञान का समर्थन करता है।
FYI करें, आप स्लाइड 15 और 16 पर, यहाँ डेक पा सकते हैं ।