आशावाद पूर्वाग्रह - भविष्यवाणी की त्रुटि का अनुमान है


9

सांख्यिकीय शिक्षण की पुस्तक तत्व (पीडीएफ ऑनलाइन में उपलब्ध) आशावादी पूर्वाग्रह (7.21, पृष्ठ 229) पर चर्चा करती है। यह बताता है कि आशावाद पूर्वाग्रह प्रशिक्षण त्रुटि और इन-सैंपल त्रुटि के बीच का अंतर है (यदि हम मूल प्रशिक्षण बिंदुओं में से प्रत्येक पर नए परिणाम मानों का नमूना करते हैं) तो त्रुटि देखी गई है।

यहाँ छवि विवरण दर्ज करें

इसके बाद, यह बताता है कि यह आशावाद पूर्वाग्रह ( ) हमारे अनुमानित y मूल्यों और वास्तविक y मूल्यों (नीचे प्रति सूत्र) के सहसंयोजक के बराबर है। मुझे यह समझने में परेशानी है कि यह सूत्र आशावाद पूर्वाग्रह को क्यों इंगित करता है; भोलेपन से मैंने सोचा होगा कि वास्तविक और अनुमानित बीच एक मजबूत सहसंयोजक केवल सटीकता का वर्णन करता है - आशावाद नहीं। मुझे बताएं कि क्या कोई सूत्र की व्युत्पत्ति में मदद कर सकता है या अंतर्ज्ञान साझा कर सकता है। ωyy

यहाँ छवि विवरण दर्ज करें


बहुत उपयोगी, धन्यवाद! मुझे लगता है कि समीकरणों में से एक में एक मामूली टाइपो है और होना चाहिए:=1Ni=1N(Ey[yi2]+Ey[y^i2]2Ey[yi]Ey[y^i]Ey[yi2]Ey[y^i2]+2E[yiy^i])
स्लीपस्टर

जवाबों:


8

आइए अंतर्ज्ञान से शुरू करें।

भविष्यवाणी करने के लिए का उपयोग करने में कुछ भी गलत नहीं है । वास्तव में, इसका उपयोग नहीं करने का मतलब होगा कि हम बहुमूल्य जानकारी फेंक रहे हैं। हालाँकि जितना अधिक हम अपनी भविष्यवाणी के साथ आने के लिए में निहित जानकारी पर निर्भर करते हैं , उतना ही अधिक हमारे आशावादी आशावादी होंगे।yiy^iyi

एक चरम पर, अगर सिर्फ , तो आप नमूना भविष्यवाणी ( ) में परिपूर्ण होंगे , लेकिन हमें पूरा यकीन है कि आउट-ऑफ-नमूना भविष्यवाणी खराब होने वाली है। इस मामले में (यह अपने आप से जांचना आसान है), स्वतंत्रता की डिग्री ।y^iyiR2=1df(y^)=n

अन्य चरम पर, यदि आप का नमूना मतलब का उपयोग : सभी के लिए , फिर स्वतंत्रता के अपने डिग्री सिर्फ 1 हो जाएगा।yyi=yi^=y¯i

इस अंतर्ज्ञान पर अधिक जानकारी के लिए रयान टिब्शिरानी द्वारा इस अच्छे हैंडआउट की जाँच करें


अब अन्य उत्तर के समान प्रमाण, लेकिन थोड़ा और स्पष्टीकरण के साथ

याद रखें कि, परिभाषा के अनुसार, औसत आशावाद है:

ω=Ey(Errinerr¯)

=Ey(1Ni=1NEY0[L(Yi0,f^(xi)|T)]1Ni=1NL(yi,f^(xi)))

अब एक द्विघात हानि फ़ंक्शन का उपयोग करें और चुकता शर्तों का विस्तार करें:

=y(1एनΣमैं=1एनY0[(Yमैं0-y^मैं)2]-1एनΣमैं=1एन(yमैं-y^मैं)2))

=1एनΣमैं=1एन(yY0[(Yमैं0)2]+yY0[y^मैं2]-2yY0[Yमैं0y^मैं]-y[yमैं2]-y[y^मैं2]+2[yमैंy^मैं])

लिए करें:yY0[(Yमैं0)2]=y[yमैं2]

=1एनΣमैं=1एन(y[yमैं2]+y[yमैं^2]-2y[yमैं]y[y^मैं]-y[yमैं2]-y[y^मैं2]+2[yमैंy^मैं])

=2एनΣमैं=1एन([yमैंy^मैं]-y[yमैं]y[y^मैं])

समाप्त करने के लिए, ध्यान दें कि , जो पैदावार करता है:सीv(एक्स,w)=[एक्सw]-[एक्स][w]

=2एनΣमैं=1एनसीv(yमैं,y^मैं)

5
मुझे यह बताना होगा कि उनका नाम "रयान टिब्शिरानी" रॉब टिब्शिरानी
रोबर्ट तिब्शीरानी

2
हमारी साइट में आपका स्वागत है, रोब - यह आपके लिए यहाँ एक विशेषाधिकार है, अगर केवल एक त्रुटि को ठीक करने के लिए! यदि आपको कोई और दिखाई देता है, तो कृपया हमें बताएं: और निश्चित रूप से हमें आपके (या आपके छात्रों) पोस्ट करने के लिए किसी भी उत्तर की खुशी होगी। इस साइट पर आपके काम को बड़े पैमाने पर संदर्भित किया गया है, विशेष रूप से ESL और इंट्रो को बूटस्ट्रैप।
whuber

मन की व्याख्या ? इसके अलावा, ? yY0[(Yमैं0)2]=y[yमैं2]2yY0[Yमैं0y^मैं]=2y[Y0[Yमैं0]Y0[y^मैं]]=2y[yमैं]y[y^मैं]
शौकी

7

Let , फिर ^(एक्समैं)=y^मैं

ω=y[पी]=y[आरआरमैंn-आरआर¯]=y[आरआरमैंn]-y[आरआर¯]=y[1एनΣमैं=1एनY0[एल(Yमैं0,^(एक्समैं))]-y[1एनΣमैं=1एनएल(yमैं,^(एक्समैं))]=1एनΣमैं=1एनyY0[(Yमैं0-y^मैं)2]-y[(yमैं-y^मैं)2]=1एनΣमैं=1एनyY0[(Yमैं0)2]+yY0[y^मैं2]-2yY0[Yमैं0y^मैं]-y[yमैं2]-y[y^मैं2]+2y[yमैंy^मैं]=1एनΣमैं=1एनy[yमैं2]+y[y^मैं2]-2y[yमैं]y[y^मैं]-y[yमैं2]-y[y^मैं2]+2y[yमैंy^मैं]=2एनΣमैं=1एनy[yमैंy^मैं]-y[yमैं]y[y^मैं]=2एनΣमैं=1एनy[yमैंy^मैं-yमैंy[y^मैं]-y[yमैं]y^मैं+y[yमैं]y[y^मैं]]=2एनΣमैं=1एनy[(y^मैं-y[y^मैं])([yमैं-y[yमैं])]=2एनΣमैं=1एनसीv(y^मैं,yमैं)
QED

1
की इस संपत्ति द्वारा अंतिम चार चरणों को सरल बनाया जा सकता है:[एक्सw]-[एक्स][w]=सीv(एक्स,w)
cd98
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.