जिस तरह से मैं इसे देखता हूं वह यह है कि आंकड़े / मशीन लर्निंग आपको बताती है कि आपको क्या अनुकूलन करना चाहिए, और अनुकूलन यह है कि आप वास्तव में ऐसा कैसे करते हैं।
उदाहरण के लिए, साथ रैखिक प्रतिगमन पर विचार करें जहां और । आंकड़े हमें बताते हैं कि यह (अक्सर) एक अच्छा मॉडल है, लेकिन हम एक अनुकूलन समस्या को हल करके अपना वास्तविक अनुमान पाते हैंY=Xβ+εE(ε)=0Var(ε)=σ2Iβ^
β^=argminb∈Rp||Y−Xb||2.
गुणों को हमें आँकड़ों के माध्यम से जाना जाता है इसलिए हम जानते हैं कि यह हल करने के लिए एक अच्छा अनुकूलन समस्या है। इस मामले में यह एक आसान अनुकूलन है लेकिन यह अभी भी सामान्य सिद्धांत को दर्शाता है।β^
आम तौर पर, मशीन लर्निंग का अधिकांश भाग को हल करने के रूप में देखा जा सकता है।
जहां मैं इसे नियमित किए बिना लिख रहा हूं, लेकिन इसे आसानी से जोड़ा जा सकता है।
f^=argminf∈F1n∑i=1nL(yi,f(xi))
सांख्यिकीय सीखने के सिद्धांत (SLT) में भारी मात्रा में अनुसंधान ने इन अर्गमिनिमा के गुणों का अध्ययन किया है, चाहे वे asymptotically इष्टतम हों या नहीं, वे कैसे की जटिलता से संबंधित हैं , और ऐसी कई अन्य चीजें। लेकिन जब आप वास्तव में प्राप्त करना चाहते हैं , तो अक्सर आप एक कठिन अनुकूलन के साथ समाप्त हो जाते हैं और यह उन लोगों का एक अलग समूह होता है जो उस समस्या का अध्ययन करते हैं। मुझे लगता है कि एसवीएम का इतिहास यहां एक अच्छा उदाहरण है। हमारे पास Vapnik और Cortes (और कई अन्य) जैसे SLT लोग हैं जिन्होंने दिखाया कि SVM कैसे हल करने के लिए एक अच्छा अनुकूलन समस्या है। लेकिन तब यह जॉन प्लैट और LIBSVM लेखकों की तरह अन्य थे जिन्होंने इस व्यवहार को संभव बनाया।Ff^
आपके सटीक प्रश्न का उत्तर देने के लिए, कुछ अनुकूलन जानना निश्चित रूप से सहायक है, लेकिन आम तौर पर कोई भी इन सभी क्षेत्रों में विशेषज्ञ नहीं है, इसलिए आप जितना सीख सकते हैं, लेकिन कुछ पहलू हमेशा आपके लिए एक ब्लैक बॉक्स के कुछ होंगे। हो सकता है कि आपने अपने पसंदीदा ML एल्गोरिदम के पीछे SLT परिणामों का ठीक से अध्ययन नहीं किया हो, या हो सकता है कि आप अपने द्वारा उपयोग किए जा रहे ऑप्टिमाइज़र के आंतरिक कामकाज को नहीं जानते हों। यह आजीवन यात्रा है।