बायस अनुमानक बायस के चयन के लिए प्रतिरक्षा हैं


11

क्या बायस अनुमानक पूर्वाग्रह के चयन के लिए प्रतिरक्षा हैं?

अधिकांश पेपर जो उच्च आयाम में अनुमान पर चर्चा करते हैं, उदाहरण के लिए, पूरे जीनोम अनुक्रम डेटा, अक्सर चयन पूर्वाग्रह का मुद्दा उठाएंगे। चयन पूर्वाग्रह इस तथ्य से उत्पन्न होता है कि, हालांकि हमारे पास हजारों संभावित भविष्यवक्ता हैं जिनमें से कुछ ही चुने जाएंगे और चयनित कुछ पर ही निष्कर्ष निकाला जा सकता है। तो प्रक्रिया दो चरणों में जाती है: (1) चयनकर्ताओं के उपसमुच्चय का चयन करें (2) चुनिंदा सेटों पर अनुमान लगाएं, उदाहरण के लिए, अनुमानों अनुपातों का अनुमान लगाएं। अपने 1994 के विरोधाभास पत्र में दाऊद ने निष्पक्ष अनुमानकर्ताओं और बेयस अनुमानकों पर ध्यान केंद्रित किया। वह सबसे बड़ा प्रभाव का चयन करने के लिए समस्या को सरल करता है, जो एक उपचार प्रभाव हो सकता है। फिर वे कहते हैं, निष्पक्ष अनुमानकर्ता चयन पूर्वाग्रह से प्रभावित होते हैं। उन्होंने उदाहरण का उपयोग किया: मान लें फिर प्रत्येकZ i

जेडमैं~एन(δमैं,1),मैं=1,...,एन
जेडमैं लिए निष्पक्ष है । Let , अनुमानक हालांकि पक्षपाती है ( सकारात्मक रूप से) अधिकतम \ {\ delta_1, \ delta_2, \ ldots, \ delta_N \} के लिए । यह कथन जेन्सन की असमानता के साथ आसानी से साबित हो सकता है। इसलिए, यदि हमें पता था कि मैं _ {\ अधिकतम} , सबसे बड़ा के सूचकांक \ delta_i , हम बस का उपयोग करेगा Z_ {मैं _ {\ अधिकतम}} इसके आकलनकर्ता जो निष्पक्ष है। लेकिन क्योंकि हम यह नहीं जानते हैं, इसलिए हम पक्षपातपूर्ण (सकारात्मक रूप से) होने के बजाय \ Gamma_1 (\ mathbf {Z}) का उपयोग करते हैं।जेड = ( जेड 1 , जेड 2 , ... , जेड एन ) टी गामा 1 ( जेड ) = अधिकतम { जेड 1 , जेड 2 , ... , जेड एन } अधिकतम { δ 1 , δ 2 , ... , δ एन } मैं अधिकतम δ मैं जेड मैं अधिकतम γ 1 ( जेडδमैंजेड=(जेड1,जेड2,...,जेडएन)टी
γ1(जेड)=अधिकतम{जेड1,जेड2,...,जेडएन}
अधिकतम{δ1,δ2,...,δएन}मैंअधिकतमδमैंजेडमैंअधिकतमγ1(जेड)

यहाँ छवि विवरण दर्ज करें

लेकिन चिंताजनक बयान दाविद, एफ्रॉन और अन्य लेखकों का कहना है कि बेयस अनुमानक चयन पूर्वाग्रह के लिए प्रतिरक्षा हैं। अब मैं पर पहले रखा जाएगा तो , कहते हैं कि , तो के Bayes आकलनकर्ता द्वारा दिया जाता है जहां , with मानक गाऊसी।δ मैं ~ जी ( ) δ मैं{ δ मैं | जेड मैं } = z मैं + δमैंδमैं~जी()δमैंमीटर(zमैं)=φ(zमैं-δमैं)जी(δमैं)δमैंφ()

{δमैं|जेडमैं}=zमैं+zमैं(zमैं)
(zमैं)=φ(zमैं-δमैं)जी(δमैं)δमैंφ()

यदि हम के नए अनुमानक को जो कुछ भी आप अनुमान लगाने के लिए चयन के साथ , वही होगा अगर चयन के आधार पर किया गया था .इस प्रकार है क्योंकि में एक लय है । हम यह भी जानते हैं कि शब्द के साथ शून्य की ओर Z_i ,δमैंअधिकतममैं δ मैं अधिकतम γ 1 ( जेड ) मैं गामा 2 ( जेड ) गामा 2 ( जेड )

γ2(जेड)=अधिकतम{{δ1|जेड1},{δ2|जेड2},...,{δएन|जेडएन}},
मैंδमैंअधिकतमγ1(Z)iγ2(Z)γ2(Z){ δ मैं | जेड मैं } जेड मैं ZiE{δiZi}ZiZiddzim(zi)जो में कुछ सकारात्मक पूर्वाग्रह को । लेकिन हम कैसे निष्कर्ष निकालते हैं कि बायस अनुमानक पूर्वाग्रह के चयन के लिए प्रतिरक्षा हैं। मैं वास्तव में यह नहीं मिलता है।जेडमैं

1
यह देखते हुए कि आप साहित्य के एक टुकड़े में एक दावे का उल्लेख कर रहे हैं, क्या आप कृपया पूर्ण स्थिति और पृष्ठ संदर्भ दे सकते हैं, ताकि हम इस दावे का पूरा संदर्भ पढ़ सकें।
बेन -

एक अनुमानक को परिभाषित कर रहा है क्योंकि बेस अनुमानकों की अधिकतम अभी भी एक बेयस अनुमानक है?
शीआन

उदाहरण 1 कागज में।
चैंबरलेन फोंचा

जवाबों:


4

जैसा कि ऊपर वर्णित है, मुद्दा इंडेक्स और मान पर ड्राइंग के अनुमान के साथ खड़ा है, (i⁰, μ,), सामान्य आरवी के नमूने का सबसे बड़ा मतलब है। मुझे दाविद की प्रस्तुति में जो आश्चर्यजनक लगा वह यह है कि बायेसियन विश्लेषण में इतना बाइसियन नहीं है। यदि पूरा नमूना दिया गया है, तो एक बायेसियन दृष्टिकोण को आई (अनुमान) के बजाय, इससे संबंधित चरणों का अनुमान लगाने से पहले (i⁰, μ⁰) पर एक पीछे वितरण का उत्पादन करना चाहिए। और यदि आवश्यक हो, तो अनुमानकर्ताओं को एक विशेष नुकसान फ़ंक्शन की परिभाषा से आना चाहिए। जब, इसके बजाय, नमूने में सबसे बड़ा बिंदु दिया जाता है, और केवल वह बिंदु, इसका वितरण बदलता है, इसलिए मैं इस कथन से काफी निराश हूं कि कोई समायोजन की आवश्यकता नहीं है।

पूर्व मॉडलिंग भी इसमें आश्चर्यजनक है कि साधनों पर पुजारी स्वतंत्र नॉर्मल के एक उत्पाद के बजाय संयुक्त होना चाहिए, क्योंकि इन साधनों की तुलना की जाती है और इसलिए तुलनीय है। उदाहरण के लिए एक पदानुक्रमित पूर्व अधिक उपयुक्त लगता है, स्थान और पैमाने के साथ पूरे डेटा का अनुमान लगाया जाता है। साधनों के बीच संबंध बनाना ... स्वतंत्र अनुचित पादरियों के उपयोग के लिए एक प्रासंगिक आपत्ति यह है कि अधिकतम मतलब μ⁰ तो एक अच्छी तरह से परिभाषित उपाय नहीं है। हालांकि, मुझे नहीं लगता कि कुछ पुजारियों बनाम अन्य की आलोचना इस "विरोधाभास" पर एक प्रासंगिक हमला है।


1
मुझे लगता है कि आवश्यक सभी सुरक्षा को पूर्व में कोडित किया जाना चाहिए जो सभी अज्ञात साधनों को जोड़ता है। यदि पूर्व के बीच बड़े अंतर की संभावना बहुत कम है, तो यह पीछे के हिस्से में परिलक्षित होता है।
फ्रैंक हार्ले

(मैं,μ)

δमैं~एन(,1)जेडमैं~एन(δमैं,1)δमैंजेडमैंδमैं(δमैं|जेडमैं)जेडमैं0जेडमैं(δमैं0|जेडमैं0)जेडमैं(δमैं0|जेडमैं0)जेडमैं0मैं0

[δमैं|जेडमैं]δमैंमैंμमैं

μमैं

1

मैं*=5μ5एन(एक्स5,σ2)

बायेसियन तर्क झूठे निष्कर्ष के लिए नेतृत्व करेंगे यदि इस तरह के प्रत्येक प्रयोग के लिए (कुछ बार अपने दोहराने की कल्पना करें), केवल सबसे अच्छी किस्म के लिए परिणाम रखे जाएंगे। डेटा चयन होगा और बायेसियन तरीके स्पष्ट रूप से (गुप्त) डेटा चयन के लिए प्रतिरक्षा नहीं हैं। वास्तव में कोई सांख्यिकीय विधि डेटा चयन के लिए प्रतिरक्षा नहीं है।

यदि ऐसा चयन किया गया था, तो एक पूर्ण बायेसियन तर्क इस चयन को ध्यान में रखते हुए भ्रम को आसानी से ठीक कर देगा।

हालांकि वाक्य "बायस अनुमानक चयन करने के लिए प्रतिरक्षा हैं बायस" थोड़ा खतरनाक है। ऐसी परिस्थितियों की कल्पना करना आसान है जहां "चयन" का अर्थ कुछ और है, जैसे उदाहरण के लिए व्याख्यात्मक चर का चयन, या डेटा का चयन। बेयस स्पष्ट रूप से इसके लिए प्रतिरक्षा नहीं है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.