मुझे लगता है कि यहां का उत्तर डेटा विज्ञान में हर जगह समान है: यह डेटा पर निर्भर करता है :-)
ऐसा हो सकता है कि एक विधि दूसरे से अलग हो जाए (यहां https://arimo.com/data-science/2016/bayesian-optimization-hyperparameter-tuning/ लोग बायेसियन हाइपरपैरिमेट ऑप्टिमाइजेशन की तुलना करते हैं और सैन फ्रांसिस्को क्राइम कागल चुनौती से बेहतर परिणाम प्राप्त करते हैं। यादृच्छिक खोज के साथ), हालांकि मुझे संदेह है कि इसके लिए एक सामान्य नियम है। आप यहाँ एक अच्छा gif देख सकते हैं ( http://blog.revolutionanalytics.com/2016/06/bayesian-optimization-of-machine-learning-models.html ) जहाँ लोग 'रास्ता' दिखाते हैं कि बायोपियन अनुकूलन परिदृश्य में लेता है। हाइपरपरमेटर्स में, विशेष रूप से, ऐसा नहीं लगता है जैसे कि यह सामान्य में यादृच्छिक खोज को बेहतर बनाता है ...
मुझे लगता है कि इस कारण से लोग बायेसियन हाइपरपेरिमेट ऑप्टिमाइज़ेशन का उपयोग करते हैं, यह पर्याप्त रूप से उच्च संख्या के प्रयोगों के साथ यादृच्छिक खोज की तुलना में एक तुलनीय परिणाम प्राप्त करने के लिए बस कम प्रशिक्षण कदम उठाता है।
एक वाक्य में संक्षेप:
* जब प्रशिक्षण का समय महत्वपूर्ण हो, तो बायेसियन हाइपरपेरेटरी ऑप्टिमाइज़ेशन का उपयोग करें और यदि समय कोई समस्या नहीं है, तो दोनों में से एक का चयन करें ... *
आमतौर पर मैं गॉसियन प्रक्रियाओं के साथ बायेसियन सामान को लागू करने के लिए बहुत आलसी हूं, अगर मैं यादृच्छिक खोज के साथ एक ही परिणाम प्राप्त कर सकता हूं ... मैं सिर्फ 'कुछ' डेटा पर ग्रेडिएंट बॉस्स्टिंग पहनावा प्रशिक्षित करता हूं, इसलिए मेरे लिए, समय एक मुद्दा नहीं है ...