बिशप की पुस्तक "पैटर्न वर्गीकरण और मशीन लर्निंग" में, यह तंत्रिका नेटवर्क के संदर्भ में नियमितीकरण के लिए एक तकनीक का वर्णन करता है। हालाँकि, मुझे यह बताने में कोई पैराग्राफ समझ में नहीं आता है कि प्रशिक्षण प्रक्रिया के दौरान, मॉडल जटिलता के साथ-साथ स्वतंत्रता की डिग्री की संख्या बढ़ जाती है। प्रासंगिक उद्धरण निम्नलिखित है:
नेटवर्क की प्रभावी जटिलता को नियंत्रित करने के एक तरीके के रूप में नियमितीकरण का एक विकल्प शुरुआती रोक की प्रक्रिया है। गैर-नेटवर्क नेटवर्क मॉडल का प्रशिक्षण प्रशिक्षण डेटा के एक सेट के संबंध में परिभाषित त्रुटि फ़ंक्शन की पुनरावृत्ति में कमी से मेल खाता है। नेटवर्क प्रशिक्षण के लिए उपयोग किए जाने वाले कई अनुकूलन एल्गोरिदम, जैसे कि संयुग्मक ग्रेडिएंट्स के लिए, त्रुटि पुनरावृत्ति सूचकांक का एक नगण्य कार्य है। हालांकि, स्वतंत्र डेटा के संबंध में मापी गई त्रुटि, जिसे आम तौर पर एक सत्यापन सेट कहा जाता है, अक्सर पहली बार में कमी दिखाई देती है, इसके बाद वृद्धि में वृद्धि होती है क्योंकि नेटवर्क ओवर-फिट होने लगता है। इसलिए प्रशिक्षण को मान्य डेटा सेट के संबंध में सबसे छोटी त्रुटि के बिंदु पर रोका जा सकता है, जैसा कि चित्र 5.12 में संकेत दिया गया है, ताकि नेटवर्क का सामान्यीकरण अच्छा प्रदर्शन प्राप्त कर सके।इस मामले में नेटवर्क के व्यवहार को कभी-कभी नेटवर्क में स्वतंत्रता की डिग्री की प्रभावी संख्या के संदर्भ में गुणात्मक रूप से समझाया जाता है, जिसमें यह संख्या छोटे से शुरू होती है और फिर प्रशिक्षण प्रक्रिया के दौरान बढ़ने के लिए प्रभावी रूप से स्थिर वृद्धि के अनुरूप होती है। मॉडल की जटिलता।
यह भी कहता है कि प्रशिक्षण के दौरान मापदंडों की संख्या बढ़ती है। मैं यह मान रहा था कि "पैरामीटर" द्वारा, यह नेटवर्क की छिपी इकाइयों द्वारा नियंत्रित वजन की संख्या को संदर्भित करता है। हो सकता है कि मैं गलत हूं क्योंकि वजन को नियमितीकरण प्रक्रिया द्वारा परिमाण में वृद्धि से रोका जाता है लेकिन वे संख्या में नहीं बदलते हैं। क्या यह अच्छी संख्या में छिपी इकाइयों की खोज की प्रक्रिया का जिक्र कर सकता है?
तंत्रिका नेटवर्क में स्वतंत्रता की डिग्री क्या है? प्रशिक्षण के दौरान कौन से पैरामीटर बढ़ते हैं?