बहुत दिलचस्प सवाल, मुझे आपके द्वारा दिए गए कागजात पढ़ने होंगे ... लेकिन शायद यह हमें एक उत्तर की दिशा में शुरू करेगा:
मैं आमतौर पर इस समस्या से बहुत व्यावहारिक तरीके से निपटता हूं: मैं नए यादृच्छिक विभाजन के साथ k- गुना क्रॉस सत्यापन को पुनरावृत्त करता हूं और प्रत्येक पुनरावृत्ति के लिए हमेशा की तरह प्रदर्शन की गणना करता हूं। समग्र परीक्षण नमूने तब प्रत्येक पुनरावृत्ति के लिए समान होते हैं, और अंतर डेटा के विभिन्न विभाजन से आते हैं।
यह मैं उदाहरण के लिए 5 वीं से 95 वीं प्रतिशत के रूप में मनाया प्रदर्शन wrt रिपोर्ट। नए नमूनों के लिए नमूने तक आदान-प्रदान करना और इसे मॉडल अस्थिरता के लिए एक उपाय के रूप में चर्चा करना।nकश्मीर- 1
ध्यान दें: मैं वैसे भी ऐसे सूत्रों का उपयोग नहीं कर सकता, जिनके लिए नमूना आकार की आवश्यकता है। जैसा कि मेरा डेटा संरचना में श्रेणीबद्ध या पदानुक्रमित है (एक ही मामले के कई समान लेकिन बार-बार माप नहीं, आमतौर पर एक ही नमूने के कई [सौ] अलग-अलग स्थान) मुझे प्रभावी नमूना आकार नहीं पता है।
बूटस्ट्रैपिंग की तुलना:
पुनरावृत्तियों नए यादृच्छिक विभाजन का उपयोग करते हैं।
मुख्य अंतर (बूटस्ट्रैप) या बिना (cv) प्रतिस्थापन के साथ रेज़म्पलिंग है।
कम्प्यूटेशनल लागत उसी के बारे में है, जैसा कि मैं cv के पुनरावृत्तियों में से कोई भी नहीं≈
बूटस्ट्रैप के कुछ सांख्यिकीय गुणों के संदर्भ में cv पर लाभ हैं (asymptotically सही, संभवतः आपको एक अच्छा अनुमान प्राप्त करने के लिए कम पुनरावृत्तियों की आवश्यकता है)
हालाँकि, cv के साथ आपको वह लाभ है जिसकी आपको गारंटी है
- अलग-अलग प्रशिक्षण नमूनों की संख्या सभी मॉडलों के लिए समान है (यदि आप सीखना घटता की गणना करना चाहते हैं तो महत्वपूर्ण है)
- प्रत्येक नमूने का प्रत्येक पुनरावृत्ति में एक बार परीक्षण किया जाता है
कुछ वर्गीकरण विधियां दोहराए गए नमूनों को छोड़ देंगी, इसलिए बूटस्ट्रैपिंग का कोई मतलब नहीं है
प्रदर्शन के लिए भिन्न
संक्षिप्त उत्तर: हाँ, यह उस स्थिति में विचरण की बात करने का कोई मतलब नहीं है जहाँ केवल {0,1} परिणाम मौजूद हैं।
द्विपद वितरण पर एक नजर डालें (k = सफलताओं, n = परीक्षण, p = सफलता के लिए सही संभावना = औसत k / n):
σ2( k ) = n p ( 1 - p )
पीपी^
- फ्लेस: सांख्यिकीय तरीके दरें और अनुपात के लिए
- फोर्थोफर और ली: बायोस्टैटिस्टिक्स का अच्छा परिचय है।
पी^= केn
σ2( पी^) = पी ( 1 - पी )n
इसका मतलब यह है कि क्लासिफायर प्रदर्शन को मापने के लिए अनिश्चितता केवल परीक्षण किए गए मॉडल के सही प्रदर्शन पी और परीक्षण नमूनों की संख्या पर निर्भर करती है।
क्रॉस सत्यापन में आप मान लेते हैं
कि "सरोगेट" मॉडल का "वास्तविक" मॉडल के समान वास्तविक प्रदर्शन होता है जिसे आप आमतौर पर सभी नमूनों से बनाते हैं। (इस धारणा का टूटना प्रसिद्ध निराशावादी पूर्वाग्रह है)।
कि k "सरोगेट" मॉडल का समान वास्तविक प्रदर्शन है (समतुल्य है, स्थिर भविष्यवाणियां हैं), इसलिए आपको k परीक्षणों के परिणामों को पूल करने की अनुमति है।
बेशक, न केवल k "सरोगेट" cv के एक पुनरावृत्ति के मॉडल को पूल किया जा सकता है, बल्कि k- गुना cv के i पुनरावृत्तियों के ki मॉडल।
क्यों पुनरावृति?
पुनरावृत्तियों की मुख्य बात आपको बताती है कि एक ही नमूने के लिए विभिन्न मॉडलों के पूर्वानुमानों का मॉडल (पूर्वानुमान) अस्थिरता है।
p^
और हाँ, यह महत्वपूर्ण जानकारी है।
nbootstrapk⋅niter. cvn−1≈nσ2(p^)=p(1−p)n
pknp^n
यदि आप मॉडल अस्थिरता का निरीक्षण करते हैं, तो पूल किए गए औसत सही प्रदर्शन का एक बेहतर अनुमान है। पुनरावृत्तियों के बीच विचरण एक महत्वपूर्ण जानकारी है, और आप इसे सभी पुनरावृत्तियों पर सही प्रदर्शन औसत प्रदर्शन के साथ आकार n के परीक्षण सेट के लिए अपेक्षित न्यूनतम विचरण से तुलना कर सकते हैं।