क्रॉस-मान्यता और समय श्रृंखला के बारे में आरजे हाइंडमैन के "रिसर्च टिप्स" में से एक को पढ़ने के बाद , मैं अपने एक पुराने प्रश्न पर वापस आया कि मैं यहां तैयार करने की कोशिश करूंगा। विचार यह है कि वर्गीकरण या प्रतिगमन समस्याओं में, डेटा के आदेश महत्वपूर्ण नहीं है, और इसलिए है कश्मीर गुना पार सत्यापन किया जा सकता है। दूसरी ओर, समय श्रृंखला में, डेटा का क्रम स्पष्ट रूप से एक महत्वपूर्ण महत्व है।
हालांकि, समय श्रृंखला का पूर्वानुमान करने के लिए मशीन लर्निंग मॉडल का उपयोग करते समय, श्रृंखला को फिर से आकार देने के लिए एक सामान्य रणनीति है । । । , Y टी } "इनपुट-आउटपुट वैक्टर" जो कुछ समय के लिए के एक सेट में टी , फार्म का ( y टी - n + 1 , । । । , Y टी - 1 , y टी ; y टी + 1 ) ।
अब, एक बार यह पुन: चालू हो जाने के बाद, क्या हम इस पर विचार कर सकते हैं कि "इनपुट-आउटपुट वैक्टर" के परिणामस्वरूप सेट को ऑर्डर करने की आवश्यकता नहीं है? यदि हम, उदाहरण के लिए, इन आंकड़ों को "सीखने" के लिए n निविष्टियों के साथ एक फीड-फॉरवर्ड न्यूरल नेटवर्क का उपयोग करते हैं, तो हम उसी परिणाम पर पहुंचेंगे, जिस क्रम में हम मॉडल को वैक्टर दिखाते हैं। और इसलिए, क्या हम प्रत्येक बार मॉडल को फिर से फिट करने की आवश्यकता के बिना मानक तरीके से k- गुना क्रॉस-सत्यापन का उपयोग कर सकते हैं?