मशीन लर्निंग एल्गोरिदम हर समय अनुकूलन का उपयोग करते हैं। हम नुकसान, या त्रुटि को कम करते हैं, या कुछ प्रकार के स्कोर कार्यों को अधिकतम करते हैं। ग्रेडिएंट डिसेंट "हेल्लो वर्ल्ड" ऑप्टिमाइज़ेशन एल्गोरिथम है जो संभवतः किसी भी मशीन लर्निंग कोर्स पर कवर किया गया है। यह प्रतिगमन, या वर्गीकरण मॉडल के मामले में स्पष्ट है, लेकिन यहां तक कि क्लस्टरिंग जैसे कार्यों के साथ हम एक समाधान की तलाश कर रहे हैं जो कि हमारे डेटा को उपयुक्त रूप से फिट करता है (जैसे k- साधन चौकों के भीतर-क्लस्टर योग को कम करता है)। इसलिए यदि आप यह समझना चाहते हैं कि मशीन लर्निंग एल्गोरिदम कैसे काम करता है, तो अनुकूलन के बारे में अधिक सीखना मदद करता है। इसके अलावा, यदि आपको हाइपरपैरेट ट्यूनिंग जैसी चीजें करने की आवश्यकता है, तो आप सीधे अनुकूलन का उपयोग भी कर रहे हैं।
कोई तर्क दे सकता है कि उत्तल कार्यों से निपटने के बजाय उत्तल अनुकूलन मशीन सीखने के लिए दिलचस्प नहीं होना चाहिए , हम अक्सर नीचे की तरह नुकसान सतहों का सामना करते हैं, जो उत्तल से बहुत दूर हैं ।
(स्रोत: https://www.cs.umd.edu/~tomg/projects/landscapes/ और arXiv: 1712.09913 )
फिर भी, जैसा कि अन्य उत्तरों में उल्लेख किया गया है, उत्तल अनुकूलन तेज, सरल और कम कम्प्यूटेशनल रूप से गहन है, इसलिए अक्सर किसी समस्या को "उत्तल करना" (इसे उत्तल अनुकूलन के अनुकूल बनाना) आसान होता है, फिर गैर-उत्तल अनुकूलन का उपयोग करें। उदाहरण के लिए, ढाल वंश और एक जैसे एल्गोरिदम आमतौर पर मशीन लर्निंग में उपयोग किए जाते हैं, विशेष रूप से तंत्रिका नेटवर्क के लिए, क्योंकि वे "कार्य", स्केल, और व्यापक रूप से अलग-अलग सॉफ़्टवेयर में कार्यान्वित होते हैं, फिर भी वे सबसे अच्छे नहीं हैं जो हमें मिल सकते हैं और हमारे नुकसान हो सकते हैं , जैसा कि एनआईपीएस 2017 में अली रहीमी की चर्चा से चर्चा हुई ।
दूसरी ओर, गैर-उत्तल अनुकूलन एल्गोरिदम जैसे कि विकासवादी एल्गोरिदम एमएल समुदाय में अधिक से अधिक मान्यता प्राप्त कर रहे हैं, उदाहरण के लिए न्यूरोव्यूलेशन द्वारा तंत्रिका नेटवर्क का प्रशिक्षण हाल ही में शोध विषय लगता है (यह भी देखें arXiv: 17124897 )।