केयरट री-सैंपलिंग के तरीके


20

मैं caretविभिन्न मॉडलिंग प्रक्रियाओं का परीक्षण करने के लिए R में लाइब्रेरी का उपयोग कर रहा हूं ।

trainControlवस्तु एक एक फिर से नमूने विधि निर्दिष्ट करने के लिए अनुमति देता है। तरीकों में वर्णित हैं प्रलेखन अनुभाग 2.3 और शामिल हैं: boot, boot632, cv, LOOCV, LGOCV, repeatedcvऔर oob। हालांकि इनमें से कुछ का अनुमान लगाना आसान है, लेकिन इन सभी तरीकों को स्पष्ट रूप से परिभाषित नहीं किया गया है।

इन पुनर्जीवन विधियों के अनुरूप प्रक्रियाएँ क्या हैं?


प्रलेखन लिंक टूट गया है। इसकी जगह इसका इस्तेमाल करें
विकस

जवाबों:


20

ठीक है, यहाँ मेरी कोशिश है:


1
मेरा मानना ​​है कि LGOCV एक प्रशिक्षण सेट और सत्यापन सेट के बीच यादृच्छिक विभाजन है, बार-बार n। इसलिए, ट्रेन और होल्ड-आउट (ट्रेन में मॉडल का निर्माण करें और होल्ड पर मान्य करें) के बीच डेटा को विभाजित करने के सामान्य मामले के बजाय, इस प्रक्रिया को कई बार दोहराया जाता है।
B_Miner

3
मैं यह भी मानता हूं कि बार-बार केवीसी कई बार किए गए के-फोल्ड क्रॉस सत्यापन है।
B_Miner

यह मानना ​​मुश्किल है कि यह कहीं दस्तावेज नहीं है।
andrew

4

repeatedcvयकीन के लिए 10 गुना पार सत्यापन दोहराया है, मैक्स कुहन की प्रस्तुति के अनुसार। डिफ़ॉल्ट रीसम्पलिंग स्कीम बूटस्ट्रैप है।

एक अच्छी फ़ाइल जिसे आप फिर से शुरू करने के तरीकों के बारे में देख सकते हैं, वह है प्रिडिक्टिव मॉडलिंग विथ आर एंड कैरट पैकेज ( पीडीएफ )। मैक्स ने इसे "यूज़आरआर! 2013" में प्रस्तुत किया।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.