Bayesian तरीकों को कई परीक्षण सुधारों की आवश्यकता क्यों नहीं है?


22

एंड्रयू गेलमैन ने एक व्यापक लेख लिखा कि बायेसियन एबी परीक्षण में कई परिकल्पना सुधार की आवश्यकता क्यों नहीं है: क्यों हम (आमतौर पर) कई तुलनाओं के बारे में चिंता करने की ज़रूरत नहीं है , 2012।

मुझे बिलकुल समझ में नहीं आता: बायेसियन विधियों को कई परीक्षण सुधारों की आवश्यकता क्यों नहीं है?

A ~ Distribution1 + Common Distribution
B ~ Distribution2 + Common Distribution
C ~ Distribution3 + Common Distribution
Common Distribution ~ Normal

मेरी समझ यह है कि बायेसियन दृष्टिकोण सभी अंतर्निहित परिकल्पना (एक निरंतर बोन्फ्रॉनी सुधार के विपरीत) द्वारा साझा अंतर्निहित वितरण के लिए खातों के ऊपर दिखाया गया है। क्या मेरा तर्क सही है?



5
जबकि पैट्रिक के लिंक बहुत सहायक होते हैं, लेकिन 'स्वयंभू सांख्यिकीय रूप से साक्षर वैज्ञानिक समीक्षक' के लिए एक अधिक स्व-निहित उत्तर को देखना बहुत अच्छा होगा।
अनुमान

जवाबों:


14

प्रश्न का उत्तर देने का एक अजीब तरीका यह है कि बायेसियन विधि ऐसा करने का कोई तरीका नहीं प्रदान करती है क्योंकि बायेसियन विधियां साक्ष्य के स्वीकृत नियमों के अनुरूप हैं और अक्सर विधियां उनके साथ बाधाओं पर होती हैं। उदाहरण:

  • लगातार आंकड़ों के साथ, उपचार A से B की तुलना उपचार C और D की तुलना करने के लिए दंडित किया जाना चाहिए क्योंकि परिवार-वार प्रकार I त्रुटि के कारण; बायेसियन के साथ एबी तुलना अपने दम पर खड़ा है।
  • अनुक्रमिक लगातार परीक्षण के लिए, आमतौर पर डेटा के कई प्रकारों के लिए दंड की आवश्यकता होती है। समूह अनुक्रमिक सेटिंग में, ए बनाम बी के लिए एक शुरुआती तुलना को बाद की तुलना के लिए दंडित किया जाना चाहिए जो अभी तक नहीं बनाया गया है, और बाद की तुलना को पहले की तुलना के लिए दंडित किया जाना चाहिए, भले ही पहले की तुलना के पाठ्यक्रम में बदलाव न किया हो। अध्ययन।

समस्या समय और सूचना के प्रवाह के बार-बार पलटने से उपजी है, जिससे आव्रजकों को विचार करना पड़ता है कि क्या हुआ इसके बजाय क्या हो सकता है । इसके विपरीत, बायेसियन आकलन पूर्व वितरण के लिए सभी आकलन को लंगर डालता है, जो सबूतों को कैलिब्रेट करता है। उदाहरण के लिए, एबी अंतर के लिए पूर्व वितरण एबी के सभी भविष्य के आकलन को कैलिब्रेट करता है और सीडी पर विचार नहीं करना पड़ता है।

अनुक्रमिक परीक्षण के साथ, बिंदु अनुमानों को समायोजित करने के तरीके के बारे में बहुत भ्रम होता है जब एक प्रयोग को अक्सर अतिवाद का उपयोग करके जल्दी समाप्त कर दिया जाता है। बायेसियन दुनिया में, किसी भी बिंदु के अनुमानों पर पूर्व "वापस खींचता है", और अपडेट किए गए पोस्टीरियर वितरण किसी भी समय निष्कासन पर लागू होते हैं और इसके लिए किसी जटिल नमूना स्थान की आवश्यकता नहीं होती है।


4
मैं वास्तव में इस तर्क को नहीं समझता। यदि हम एक सामान्य निरंतरवादी दृष्टिकोण के साथ 1000 अलग-अलग तुलनाएं करते हैं, तो निश्चित रूप से हमें n <के तहत भी p <0.05 प्रभावों के साथ लगभग 50 महत्वपूर्ण की उम्मीद करनी चाहिए। इसलिए सुधार। यदि हम सभी तुलनाओं के लिए कुछ पूर्व (0 के आसपास?) होने के बजाय बायेसियन अनुमान / परीक्षण का उपयोग करते हैं, तो हाँ पूर्व में शून्य की ओर डाकघरों को सिकोड़ देगा, लेकिन हमारे पास अभी भी बेतरतीब ढंग से भिन्न होने वाले पोस्टर्स और / या बेयर्स कारक होंगे और शायद कुछ होंगे 1000 में से ऐसे मामले जो "पर्याप्त" प्रभावों की तरह दिखेंगे, तब भी जब सच्चे प्रभाव सभी शून्य हों।
अमीबा का कहना है कि मोनिका

1
2100021000-1

1
क्षमा करें, @probabilityislogic, मुझे यकीन नहीं है कि मैं आपकी बात समझ पाया हूं। "सभी विकल्पों" के बारे में पर्याप्त है, लेकिन व्यवहार में क्या होता है? जैसा कि मैंने कहा, हम 1000 समूह अंतर (उदाहरण के लिए) का अनुमान लगा रहे हैं; हमारे पास समूह अंतर पर एक पूर्व है; हम 1000 डाकिया, 95% विश्वसनीय अंतराल, या जो भी प्राप्त करते हैं। फिर हम यह जांचने के लिए प्रत्येक विश्वसनीय अंतराल को देखेंगे कि क्या यह शून्य से "सार्थक / पर्याप्त" प्रभाव के लिए पर्याप्त है। यदि हम ऐसा 1000 बार करते हैं, तो हम कुछ "झूठे सकारात्मक" होने की संभावना है कि कुछ प्रभाव बड़े दिखाई देंगे भले ही सभी 1000 प्रभाव वास्तव में शून्य के बराबर हों। नहीं?
अमीबा का कहना है कि मोनिका

1
1000


6

इस प्रकार के पदानुक्रमित मॉडल अनुमानों को सिकोड़ देता है और छोटे से मध्यम संख्या की परिकल्पना के लिए झूठे दावों की संख्या को उचित सीमा तक कम कर देता है। क्या यह कुछ विशिष्ट प्रकार की त्रुटि दर की गारंटी देता है? नहीं।

गेलमैन का यह विशेष सुझाव (जो कई अलग-अलग चीजों को देखने के साथ मुद्दे को स्वीकार करता है और फिर बहुत आसानी से गलत तरीके से निष्कर्ष निकालता है कि आप उनमें से कुछ के लिए कुछ देखते हैं - वास्तव में उनके ब्लॉग पर उनका एक पालतू विषय) एक चरम विकल्प से अलग है दृष्टिकोण जो यह बताता है कि बायेसियन विधियों को बहुलता के लिए खाते की आवश्यकता नहीं है, क्योंकि यह सभी मामले आपकी संभावना (और पूर्व) हैं।


1
(+1) कुछ मामलों में (जैसे कि पहले से मिलान के साथ अनिर्दिष्ट) अपेक्षा में मेरे ज्ञात के लिए, बायेसियन इनवेंशन टाइप 1 त्रुटि दर पर कोई नियंत्रण प्रदान नहीं करता है। इसलिए बायसियन सेटिंग में मल्टीपल टेस्टिंग करेक्शन IHMO को टाइप -1 त्रुटि के लिए सुधार के रूप में नहीं सोचा जा सकता है।
Peuhp


6

बहुत दिलचस्प सवाल है, यहाँ मेरा इस पर ले रहा है।

यह सभी एन्कोडिंग जानकारी के बारे में है, फिर बेयेशियन क्रैंक को चालू करें। यह सच होने के लिए बहुत अच्छा लगता है - लेकिन इन दोनों की तुलना में वे कठिन हैं।

मैं सवाल पूछना शुरू करता हूं

जब हम कई तुलनाओं के बारे में चिंता करते हैं तो किस जानकारी का उपयोग किया जा रहा है?

मैं कुछ के बारे में सोच सकता हूं - पहला "डेटा ड्रेजिंग" है - "सब कुछ" परीक्षण करें जब तक कि आप पर्याप्त पास / असफल न हो जाएं (मुझे लगता है कि लगभग हर आँकड़े प्रशिक्षित व्यक्ति को इस समस्या से अवगत कराया जाएगा)। आपके पास कम भयावहता भी है, लेकिन अनिवार्य रूप से एक ही "मेरे पास चलाने के लिए बहुत सारे परीक्षण हैं - निश्चित रूप से सभी सही नहीं हो सकते हैं"।

इस बारे में सोचने के बाद, एक बात जो मैंने नोटिस की वह यह है कि आप विशिष्ट परिकल्पना या विशिष्ट तुलनाओं के बारे में ज्यादा नहीं सुनते हैं। यह सब "संग्रह" के बारे में है - यह मेरी सोच को विनिमेयता की ओर प्रेरित करता है - जिस परिकल्पना की तुलना की जा रही है वह किसी न किसी तरह से "समान" है। और आप बायेशियन विश्लेषण में विनिमेयता कैसे सांकेतिक करते हैं? - हाइपर-पुजर्स, मिश्रित मॉडल, यादृच्छिक प्रभाव, आदि !!!

लेकिन विनिमेयता आपको वहां के रास्ते का ही हिस्सा बनाती है। क्या सब कुछ विनिमेय है? या क्या आपके पास "स्पार्सिटी" है - जैसे उम्मीदवारों के बड़े पूल के साथ केवल कुछ गैर-शून्य प्रतिगमन गुणांक। मिश्रित मॉडल और सामान्य रूप से वितरित यादृच्छिक प्रभाव यहां काम नहीं करते हैं। वे शोरगुल के शोर के बीच "अटक" जाते हैं और संकेतों को अछूता छोड़ देते हैं (जैसे आपके उदाहरण में locationB और locationC "true" पैरामीटर बराबर रखें, और locationA "सही" पैरामीटर को मनमाने ढंग से बड़े या छोटे सेट करें, और मानक रैखिक मिश्रित मॉडल को विफल देखें)। । लेकिन यह तय किया जा सकता है - उदाहरण के लिए "स्पाइक और स्लैब" पुजारियों या "घोड़े के जूते" के पुजारियों के साथ।

तो यह वास्तव में वर्णन करने के बारे में अधिक है कि आप किस तरह की परिकल्पना के बारे में बात कर रहे हैं और पूर्व और संभावना में परिलक्षित कई ज्ञात विशेषताएं प्राप्त कर रहे हैं। एंड्रयू जेलमैन का दृष्टिकोण केवल कई तुलनाओं के एक व्यापक वर्ग को संभालने का एक तरीका है। कम से कम वर्गों और सामान्य वितरण की तरह ज्यादातर मामलों में (लेकिन सभी नहीं) अच्छा काम करते हैं।

यह ऐसा कैसे करता है, इसके संदर्भ में, आप एक व्यक्ति के बारे में सोच सकते हैं - समूह ए और समूह बी का एक ही मतलब हो सकता है - मैंने डेटा को देखा, और साधन "करीब" हैं - इसलिए, एक बेहतर अनुमान प्राप्त करने के लिए। दोनों के लिए, मुझे डेटा को पूल करना चाहिए, क्योंकि मेरा शुरुआती विचार यही था कि उनका मतलब समान है। - यदि वे समान नहीं हैं, तो डेटा सबूत देता है कि वे "करीब" हैं, इसलिए पूलिंग "थोड़ा सा" मुझे बहुत बुरी तरह से चोट नहीं पहुंचाएगा यदि मेरी परिकल्पना गलत थी (एक ला सभी मॉडल गलत हैं, कुछ उपयोगी हैं)

ध्यान दें कि उपरोक्त सभी प्रारंभिक आधार पर "वे समान हो सकते हैं"। उसे दूर ले जाओ, और पूलिंग का कोई औचित्य नहीं है। आप शायद परीक्षणों के बारे में सोचने का एक "सामान्य वितरण" तरीका भी देख सकते हैं। "शून्य सबसे अधिक संभावना है", "यदि शून्य नहीं है, तो शून्य के करीब अगले सबसे अधिक संभावना है", "चरम मूल्यों की संभावना नहीं है"। इस विकल्प पर विचार करें:

  • समूह ए और समूह बी का मतलब समान हो सकता है, लेकिन वे काफी भिन्न भी हो सकते हैं

फिर "थोड़ा सा" पूल करने का तर्क बहुत बुरा विचार है। आप कुल पूलिंग या शून्य पूलिंग को चुनना बेहतर समझते हैं। बहुत अधिक जैसे कि कौची, स्पाइक और स्लैब, स्थिति का प्रकार (शून्य के आसपास द्रव्यमान और चरम मानों के लिए बहुत सारे द्रव्यमान)

संपूर्ण कई तुलनाओं से निपटने की आवश्यकता नहीं है, क्योंकि बेयसियन दृष्टिकोण उस जानकारी को शामिल कर रहा है जो हमें पूर्व और / या संभावना में चिंता की ओर ले जाता है । एक अर्थ में यह अधिक याद दिलाना है कि आपके बारे में क्या जानकारी उपलब्ध है, और यह सुनिश्चित करें कि आपने इसे अपने विश्लेषण में शामिल किया है।


2
एल1exp(-|एक्स|)

@StasK - l1 बेहतर काम करेगा, लेकिन जैसा कि यह लॉग-कॉन्क्लेव विरल गैर-शून्य के साथ संघर्ष करेगा। मैंने जिन लोगों का उल्लेख किया है वे सभी लॉग-उत्तल हैं। L1 के निकट संस्करण को सामान्य रूप से डबल पेरेटो कहा जाता है - लैप्लस स्केल पैरामीटर (एमएल स्पीक में अनुकूली लासो के समान) के मिश्रण से प्राप्त करें
प्रायिकतालोगिक

5

सबसे पहले, जैसा कि मैंने आपके द्वारा प्रस्तुत किए गए मॉडल को समझा, मुझे लगता है कि यह गेलमैन के प्रस्ताव से थोड़ा अलग है, जो अधिक दिखता है:

A ~ Distribution(locationA)
B ~ Distribution(locationB)
C ~ Distribution(locationC)

locationA ~ Normal(commonLocation)
locationB ~ Normal(commonLocation)
locationC ~ Normal(commonLocation)

commonLocation ~ hyperPrior

व्यवहार में, इस commonLocationपैरामीटर को जोड़कर , 3 वितरणों (यहां स्थान 1, 2 और 3) के मापदंडों के संदर्भ अब एक-दूसरे से स्वतंत्र नहीं हैं। इसके अलावा,commonLocation एक केंद्रीय (आमतौर पर अनुमानित) एक की ओर मापदंडों के अपेक्षात्मक मूल्यों को कम करने के लिए जाता है। एक निश्चित अर्थ में, यह सभी सुधारों के लिए एक नियमितीकरण के रूप में काम करता है, जिसमें कई सुधारों की आवश्यकता नहीं है (जैसा कि हम मॉडल के उपयोग के माध्यम से उनमें से प्रत्येक के बीच बातचीत से एक एकल बहुभिन्नरूपी अनुमान लेखांकन करते हैं)।

जैसा कि अन्य उत्तर द्वारा कहा गया है, यह सुधार टाइप I त्रुटि पर कोई नियंत्रण प्रदान नहीं करता है, लेकिन ज्यादातर मामलों में, बायेसियन विधि एकल इंजेक्शन पैमाने पर भी ऐसा कोई नियंत्रण प्रदान नहीं करती है और कई तुलनाओं के लिए सुधार को बायेसियन में अलग तरीके से सोचा जाना चाहिए। सेटिंग।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.