लो-घर गए संदेशों:
दुर्भाग्य से, आपके द्वारा उद्धृत पाठ दृष्टिकोण 1 और 2 के बीच दो चीजों को बदल देता है:
- दृष्टिकोण 2 क्रॉस सत्यापन और डेटा-संचालित मॉडल चयन / ट्यूनिंग / अनुकूलन करता है
- दृष्टिकोण 1 न तो क्रॉस सत्यापन, और न ही डेटा-संचालित मॉडल चयन / ट्यूनिंग / अनुकूलन का उपयोग करता है।
- डेटा-चालित मॉडल चयन / ट्यूनिंग / ऑप्टिमाइज़ेशन के बिना दृष्टिकोण 3 क्रॉस सत्यापन पूरी तरह से संभव है (आम आईएमएचओ अधिक चर्चा का नेतृत्व करेगा) यहां चर्चा की गई संदर्भ में
- दृष्टिकोण 4, कोई क्रॉस सत्यापन नहीं है लेकिन डेटा-संचालित मॉडल चयन / ट्यूनिंग / अनुकूलन संभव है, लेकिन निर्माण के लिए अधिक जटिल है।
IMHO, क्रॉस सत्यापन और डेटा-चालित अनुकूलन आपकी मॉडलिंग रणनीति स्थापित करने में दो बिल्कुल अलग (और काफी हद तक स्वतंत्र) फैसले हैं। केवल कनेक्शन है कि आप लक्ष्य अपने अनुकूलन के लिए कार्यात्मक रूप में पार सत्यापन अनुमान का उपयोग कर सकते है। लेकिन वहाँ मौजूद अन्य लक्ष्य कार्यात्मक उपयोग करने के लिए तैयार हैं, और क्रॉस सत्यापन अनुमानों के अन्य उपयोग हैं (महत्वपूर्ण रूप से, आप उन्हें अपने मॉडल के सत्यापन, उर्फ सत्यापन या परीक्षण के लिए उपयोग कर सकते हैं)
दुर्भाग्य से, मशीन लर्निंग शब्दावली वर्तमान में एक गड़बड़ है जो गलत कनेक्शन / कारण / निर्भरता का सुझाव देता है।
जब आप अप्रोच 3 (क्रॉस वैलिडेशन को ऑप्टिमाइज़ेशन के लिए नहीं बल्कि मॉडल परफॉर्मेंस को मापने के लिए देखते हैं), तो आपको इस संदर्भ में "डिसीजन" क्रॉस वैरिसेशन बनाम ट्रेनिंग मिलेगी, जो इस संदर्भ में एक गलत डायकोटॉमी होने के लिए सेट है: क्रॉस वेलिडेशन का उपयोग करते समय क्लासिफायर प्रदर्शन को मापने के लिए, योग्यता का क्रॉस सत्यापन आंकड़ा पूरे डेटा सेट पर प्रशिक्षित मॉडल के लिए अनुमान के रूप में उपयोग किया जाता है। Ie दृष्टिकोण 3 में दृष्टिकोण 1 शामिल है।
अब, दूसरा निर्णय देखें: डेटा-संचालित मॉडल अनुकूलन या नहीं। यह IMHO यहाँ महत्वपूर्ण बिंदु है। और हाँ, वहाँ असली दुनिया स्थितियों में, जहां कर रहे हैं नहीं डेटा-आधारित मॉडल अनुकूलन कर बेहतर है। डेटा-संचालित मॉडल अनुकूलन एक लागत पर आता है। आप इसे इस तरह से सोच सकते हैं: आपके डेटा सेट की जानकारी का उपयोग न केवल का अनुमान लगाने के लिए किया जाता हैpमॉडल के पैरामीटर / गुणांक, लेकिन अनुकूलन क्या करता है आगे के मापदंडों का अनुमान लगा रहा है, तथाकथित हाइपरपरमेटर्स। यदि आप मॉडल मापदंडों के लिए खोज के रूप में मॉडल फिटिंग और ऑप्टिमाइज़ेशन / ट्यूनिंग प्रक्रिया का वर्णन करते हैं, तो यह हाइपरपरमेट ऑप्टिमाइज़ेशन का अर्थ है कि एक बहुत बड़ा खोज स्थान माना जाता है। दूसरे शब्दों में, दृष्टिकोण 1 (और 3) में आप उन हाइपरपैरामीटरों को निर्दिष्ट करके खोज स्थान को प्रतिबंधित करते हैं। आपका वास्तविक विश्व डेटा सेट काफी बड़ा हो सकता है (जिसमें पर्याप्त जानकारी हो) उस प्रतिबंधित खोज स्थान के भीतर फिटिंग की अनुमति देने के लिए, लेकिन दृष्टिकोण 2 (और 4) के बड़े खोज स्थान में पर्याप्त रूप से अच्छी तरह से सभी मापदंडों को ठीक करने के लिए पर्याप्त नहीं है।
वास्तव में, मेरे क्षेत्र में मुझे अक्सर डेटा सेट से निपटना पड़ता है जो डेटा-संचालित अनुकूलन के किसी भी विचार को अनुमति देने के लिए बहुत छोटा है। इसलिए मैं इसके बजाय क्या करता हूं: मैं अपने डोमेन ज्ञान का उपयोग डेटा और डेटा बनाने की प्रक्रियाओं के बारे में करता हूं ताकि यह तय हो सके कि कौन सा मॉडल डेटा और एप्लिकेशन की भौतिक प्रकृति के साथ अच्छी तरह से मेल खाता है। और इन के भीतर, मुझे अभी भी अपनी मॉडल जटिलता को प्रतिबंधित करना होगा।