bias पर टैग किए गए जवाब

पैरामीटर अनुमानक के अनुमानित मूल्य और पैरामीटर के सही मूल्य के बीच का अंतर। [बायस-टर्म] / [बायस-नोड] (यानी [इंटरसेप्ट]) को संदर्भित करने के लिए इस टैग का उपयोग न करें।

3
दुर्लभ घटना लॉजिस्टिक रिग्रेशन पूर्वाग्रह: कम से कम उदाहरण के साथ कम करके आंका गया p कैसे अनुकरण करें?
CrossValidated पर किंग और ज़ेंग (2001) द्वारा दुर्लभ घटना पूर्वाग्रह सुधार कब और कैसे लागू किया जाए, इस पर कई सवाल हैं । मैं कुछ अलग खोज रहा हूं: एक न्यूनतम सिमुलेशन-आधारित प्रदर्शन जो पूर्वाग्रह मौजूद है। विशेष रूप से, राजा और ज़ेंग राज्य "... दुर्लभ घटनाओं के आंकड़ों में …

1
जब शब्द "पूर्वाग्रह" मतलब करने के लिए गढ़ा गया था
जब शब्द "पूर्वाग्रह" मतलब करने के लिए गढ़ा गया था ई [ θ^- θ ]इ[θ^-θ]\mathbb{E}[\hat{\theta}-\theta] ? इस समय मैं इस बारे में क्यों सोच रहा हूं, इसका कारण यह है कि मैं जेनेस को याद करने लगता हूं, उसके प्रोबेबिलिटी थ्योरी पाठ में, इस सूत्र का वर्णन करने के लिए …

7
मशीन लर्निंग में बायस्ड डेटा
मैं डेटा के साथ मशीन लर्निंग प्रोजेक्ट पर काम कर रहा हूं जो डेटा चयन द्वारा पहले से ही (भारी) पक्षपाती है। मान लेते हैं कि आपके पास कठिन कूट नियमों का एक सेट है। आप इसे बदलने के लिए मशीन लर्निंग मॉडल का निर्माण कैसे करते हैं, जब इसका …

2
क्या रैखिक प्रतिगमन में पूर्वाग्रह-विचरण व्यापार का चित्रमय प्रतिनिधित्व है?
मैं एक अंधकार से पीड़ित हूं। मुझे रेखीय प्रतिगमन के संदर्भ में पूर्वाग्रह-विचरण व्यापार का प्रदर्शन करने के लिए निम्नलिखित चित्र प्रस्तुत किया गया था: मैं देख सकता हूं कि दोनों में से कोई भी मॉडल एक अच्छा फिट नहीं है - "सरल" एक्सवाई संबंध की जटिलता की सराहना नहीं …

6
वहाँ एक उदाहरण है जहाँ MLE मतलब का एक पक्षपाती अनुमान पैदा करता है?
क्या आप इस बात का एक MLE अनुमानक का उदाहरण प्रदान कर सकते हैं कि पक्षपाती है? मैं एक उदाहरण की तलाश नहीं कर रहा हूं जो नियमित परिस्थितियों का उल्लंघन करके सामान्य रूप से MLE अनुमानकों को तोड़ता है। सभी उदाहरण जो मैं इंटरनेट पर देख सकता हूं, वह …

1
लॉजिस्टिक रिग्रेशन बनाम ऑग्मेंटेड वैरिएबल पूर्वाग्रह बनाम साधारण से कम वर्ग के प्रतिगमन में वैरिएबल वैरिएबल बायस
मेरे पास लॉजिस्टिक और लीनियर रिग्रेशन में छोड़े गए वैरिएबल पूर्वाग्रह के बारे में एक सवाल है। कहो कि मैं एक रैखिक प्रतिगमन मॉडल से कुछ चर को छोड़ देता हूं। यह बताएं कि जो छोड़े गए चर मेरे मॉडल में शामिल चर के साथ असंबंधित हैं। उन छोड़े गए …

2
पूर्वाग्रह-विचरण व्यापार के बारे में प्रश्न
मैं पूर्वाग्रह-विचरण व्यापार को समझने की कोशिश कर रहा हूं, अनुमानक के पूर्वाग्रह और मॉडल के पूर्वाग्रह के बीच संबंध, और अनुमानक के विचरण और मॉडल के विचरण के बीच संबंध। मैं इन नतीजों पर आया: जब हम अनुमानक के पूर्वाग्रह को नजरअंदाज करते हैं, तब हम डेटा को ओवरफिट …

1
व्याख्यात्मक मॉडलिंग में पूर्वाग्रह को कम करना, क्यों? (गलित शुमेली का "समझाने या भविष्यवाणी करने के लिए")
यह सवाल गैलीट श्मुइली के पेपर "To Explain or Predict " का संदर्भ देता है । विशेष रूप से, धारा 1.5 में, "व्याख्या और भविष्यवाणी अलग हैं", प्रोफेसर श्मुइली लिखते हैं: व्याख्यात्मक मॉडलिंग में ध्यान अंतर्निहित सिद्धांत का सबसे सटीक प्रतिनिधित्व प्राप्त करने के लिए पूर्वाग्रह को कम करने पर …

4
एक निर्णय पेड़ में कम पूर्वाग्रह और उच्च विचरण क्यों होता है?
प्रशन क्या यह निर्भर करता है कि पेड़ उथला है या गहरा है? या हम इसे पेड़ की गहराई / स्तरों के बावजूद कह सकते हैं? पूर्वाग्रह कम और विचरण अधिक क्यों है? कृपया सहज ज्ञान युक्त और गणितीय रूप से समझाएं

3
क्या हमें वास्तव में "सभी प्रासंगिक भविष्यवक्ताओं को शामिल करने की आवश्यकता है?"
अनुमान के लिए प्रतिगमन मॉडल का उपयोग करने की एक बुनियादी धारणा यह है कि "सभी प्रासंगिक भविष्यवक्ताओं" को भविष्यवाणी समीकरण में शामिल किया गया है। औचित्य यह है कि एक महत्वपूर्ण वास्तविक दुनिया कारक को शामिल करने में विफलता पक्षपाती गुणांक की ओर ले जाती है और इस प्रकार …

2
छुट्टी-एक-आउट क्रॉस-सत्यापन का उच्च संस्करण
मैं बार-बार पढ़ता हूं कि "लीव-वन-आउट" क्रॉस-वैरिफिकेशन में प्रशिक्षण सिलेंडों के बड़े ओवरलैप के कारण उच्च विचरण है। हालाँकि मुझे समझ नहीं आया कि ऐसा क्यों है: क्या क्रॉस-वेलिडेशन का प्रदर्शन बिल्कुल स्थिर (कम विचरण) नहीं होना चाहिए क्योंकि प्रशिक्षण सेट लगभग समान हैं? या क्या मुझे पूरी तरह से …

1
आकस्मिक पैरामीटर समस्या
मैं हमेशा आकस्मिक पैरामीटर समस्या का सही सार पाने के लिए संघर्ष करता हूं। मैंने कई अवसरों में पढ़ा कि नॉनलाइनर पैनल डेटा मॉडल के निश्चित प्रभाव अनुमानक "अच्छी तरह से ज्ञात" आकस्मिक पैरामीटर समस्या के कारण गंभीर रूप से पक्षपाती हो सकते हैं। जब मैं इस समस्या का स्पष्ट …

4
तंत्रिका नेटवर्क में पूर्वाग्रह इकाई के लिए कोई नियमितीकरण शब्द नहीं
गहन शिक्षण पर इस ट्यूटोरियल के अनुसार , वजन घटाने (नियमितीकरण) को आमतौर पर पूर्वाग्रह शर्तों पर लागू नहीं किया जाता है b क्यों? इसके पीछे क्या महत्व (अंतर्ज्ञान) है?

2
किस मॉडल के लिए MLE का पूर्वाग्रह तेजी से विचरण से गिरता है?
θ^\hat\thetaθ∗\theta^*nn ‖ θ - θ * ‖∥θ^−θ∗∥\lVert\hat\theta-\theta^*\rVert आम तौर पर कम हो जाती है के रूप में हे ( 1 / √n )O(1/n−−√)O(1/\sqrt n)। त्रिकोण असमानता और उम्मीद के गुणों का उपयोग करना, यह है कि इस त्रुटि दर है कि दोनों "पूर्वाग्रह" का तात्पर्य दिखाया जा सकता है‖ई θ …

4
जूरी चयन में पूर्वाग्रह?
एक दोस्त अपील पर एक ग्राहक का प्रतिनिधित्व कर रहा है, एक आपराधिक परीक्षण के बाद जिसमें यह प्रतीत होता है कि जूरी चयन नस्लीय पक्षपाती था। जूरी पूल में 4 नस्लीय समूहों में 30 लोग शामिल थे। अभियोजन पक्ष ने इनमें से 10 लोगों को पूल से बाहर करने …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.