क्या क्रॉस सत्यापन कार्यान्वयन इसके परिणामों को प्रभावित करता है?


9

जैसा कि आप जानते हैं, क्रॉस-वेलिडेशन के दो लोकप्रिय प्रकार हैं, के-फोल्ड और रैंडम सबसम्पलिंग (जैसा कि विकिपीडिया में वर्णित है )। फिर भी, मुझे पता है कि कुछ शोधकर्ता कागजात बना रहे हैं और प्रकाशित कर रहे हैं जहां कुछ ऐसा है जिसे के-गुना सीवी के रूप में वर्णित किया गया है, वास्तव में एक यादृच्छिक सबसम्प्लिंग है, इसलिए व्यवहार में आप कभी नहीं जानते कि जो लेख आप पढ़ रहे हैं वह वास्तव में क्या है।
आमतौर पर अंतर ध्यान देने योग्य है, और इसलिए मेरा सवाल है - क्या आप एक उदाहरण के बारे में सोच सकते हैं जब एक प्रकार का परिणाम दूसरे से काफी भिन्न होता है?

जवाबों:


4

आप निश्चित रूप से अलग-अलग परिणाम प्राप्त कर सकते हैं क्योंकि आप विभिन्न उदाहरणों पर प्रशिक्षण देते हैं। मुझे बहुत संदेह है कि एक एल्गोरिथ्म या समस्या डोमेन है जहां दो के परिणाम कुछ अनुमानित तरीके से भिन्न होंगे।


मेरा मतलब काफी अलग परिणाम था। मुझे भी लगता है कि कोई भी नहीं, कम से कम वास्तविक दुनिया का उदाहरण है। फिर भी, मुझे लगता है कि मैं कुछ समय और इंतजार करूंगा।

3

आमतौर पर अंतर ध्यान देने योग्य है, और इसलिए मेरा सवाल है - क्या आप एक उदाहरण के बारे में सोच सकते हैं जब एक प्रकार का परिणाम दूसरे से काफी भिन्न होता है?

मुझे यकीन नहीं है कि सभी अंतर ध्यान देने योग्य है, और केवल तदर्थ उदाहरण में यह ध्यान देने योग्य होगा। क्रॉस-वेलिडेशन और बूटस्ट्रैपिंग (उप-नमूनाकरण) दोनों तरीके उनके डिजाइन मापदंडों पर गंभीर रूप से निर्भर करते हैं, और यह समझ अभी तक पूरी नहीं हुई है। सामान्य तौर पर, के -फोल्ड क्रॉस-वैलिडेशन के भीतर परिणाम सिलवटों की संख्या पर गंभीर रूप से निर्भर करते हैं, इसलिए आप उप-नमूनाकरण में जो भी देखेंगे, उससे हमेशा अलग परिणाम की उम्मीद कर सकते हैं।

बिंदु में मामला: कहते हैं कि आपके पास निश्चित संख्या में मापदंडों के साथ एक सच रैखिक मॉडल है। यदि आप k- गुना क्रॉस-वैलिडेशन (किसी दिए गए, निश्चित k के साथ) का उपयोग करते हैं, और टिप्पणियों की संख्या को अनंत तक जाने देते हैं, तो k-fold क्रॉस सत्यापन मॉडल चयन के लिए असंगत होगा, अर्थात, यह एक गलत मॉडल की पहचान करेगा 0. से अधिक संभावना है। यह आश्चर्यजनक परिणाम जून शाओ के कारण होता है, " अमेरिकी सांख्यिकी संघ , 88 , 486-494 (1993) के जर्नल " क्रॉस-वैलिडेशन द्वारा रैखिक मॉडल चयन " , लेकिन इस नस में अधिक कागजात मिल सकते हैं।

सामान्य तौर पर, सम्मानजनक सांख्यिकीय कागज पार-सत्यापन प्रोटोकॉल को निर्दिष्ट करते हैं, बिल्कुल क्योंकि परिणाम अपरिवर्तनीय नहीं हैं। इस मामले में जहां वे बड़े डेटासेट के लिए बड़ी संख्या में सिलवटों का चयन करते हैं, वे मॉडल चयन में पक्षपात को सही करने के लिए टिप्पणी करते हैं और प्रयास करते हैं।


नहीं, नहीं, नहीं, यह मशीन के बारे में है मॉडल चयन नहीं सीखना ।

1
दिलचस्प भेद। मुझे लगा कि मॉडल चयन मशीन लर्निंग के लिए केंद्रीय था, शब्द के लगभग सभी अर्थों में।
गप्पे

वे सभी चीजें तुच्छ (ज्यादातर रैखिक) मॉडल के लिए काम करती हैं जब आपके पास कुछ पैरामीटर होते हैं और आप बस उन्हें इसके बारे में कुछ कहने के लिए डेटा में फिट करना चाहते हैं, जैसे कि आपके पास y और x है और आप जांचना चाहते हैं कि y = x ^ 2 या y = एक्स। यहां मैं SVM या RF जैसे मॉडलों की त्रुटि का आकलन करने की बात करता हूं, जिनमें हजारों पैरामीटर हो सकते हैं और अभी भी जटिल अनुमानों के कारण ओवरफिट नहीं कर रहे हैं।

ये परिणाम स्वतंत्र चर की मनमानी संख्या के साथ सामान्य रैखिक मॉडल के प्रतिगमन के लिए मान्य हैं। चर मनमाने ढंग से सीखने वाले हो सकते हैं। महत्वपूर्ण धारणा यह है कि जैसा कि टिप्पणियों की संख्या अनंत तक जाती है, सच्चे मॉडल का वर्णन करने वाले शिक्षार्थियों की संख्या सीमित रहती है। यह सब प्रतिगमन के लिए काम करता है, इसलिए आपके जैसे एक वर्गीकरण कार्य के लिए मुझे यकीन नहीं है कि यह मदद करता है।
गप्पे

ऐसा नहीं होता; जीएलएम मशीन लर्निंग नहीं है। ट्रू मशीन लर्निंग के तरीके, वस्तुओं की बढ़ती संख्या से स्वतंत्र उनकी जटिलता के स्तर को पकड़ लेने के लिए पर्याप्त बुद्धिमान हैं (यदि यह निश्चित रूप से पर्याप्त है); यहां तक ​​कि रैखिक मॉडल के लिए यह पूरा सिद्धांत काफी खराब काम करता है क्योंकि अभिसरण खराब है।
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.