क्या मनाया डेटा (उर्फ मछली पकड़ने के अभियान) से मिलान करने के लिए एक परिकल्पना को बदलना संभव है और टाइप I त्रुटियों में वृद्धि से बचना चाहिए?


32

यह सर्वविदित है कि शोधकर्ताओं को एक परिकल्पना बनाने से पहले मौजूदा डेटा और शोध को देखने और तलाशने में समय बिताना चाहिए और फिर उस परिकल्पना (अशक्त-परिकल्पना महत्व परीक्षण का जिक्र) का परीक्षण करने के लिए डेटा एकत्र करना चाहिए। कई बुनियादी सांख्यिकी पुस्तकें चेतावनी देती हैं कि परिकल्पना को एक प्राथमिकता बनानी चाहिए और डेटा संग्रह के बाद इसे बदला नहीं जा सकता है अन्यथा कार्यप्रणाली अमान्य हो जाती है।

मैं समझता हूँ कि एक कारण है कि एक परिकल्पना को बदलने मनाया डेटा फिट करने के लिए समस्याग्रस्त है नकली डेटा के कारण एक प्रकार मैं त्रुटि करने का अधिक से अधिक मौका की वजह से है, लेकिन मेरे सवाल यह है: यह है कि केवल या कारण जाने के साथ अन्य बुनियादी समस्याओं देखते हैं मछली पकड़ने के अभियान पर?

एक बोनस सवाल के रूप में, संभावित नुकसान के लिए खुद को उजागर किए बिना मछली पकड़ने के अभियान पर जाने के तरीके हैं? उदाहरण के लिए, यदि आपके पास पर्याप्त डेटा है, तो क्या आप डेटा के आधे हिस्से से परिकल्पना उत्पन्न कर सकते हैं और फिर उन्हें परीक्षण करने के लिए अन्य आधे का उपयोग कर सकते हैं?

अद्यतन करें

मैं अपने प्रश्न में रुचि की सराहना करता हूं, लेकिन जवाब और टिप्पणियां ज्यादातर उस उद्देश्य के लिए होती हैं जो मैंने सोचा था कि मैंने पृष्ठभूमि की जानकारी के रूप में स्थापित किया है। मुझे यह जानने में दिलचस्पी है कि क्या अन्य कारण हैं कि यह खराब परिणामों की उच्च संभावना से परे बुरा है और अगर कोई तरीका है, जैसे कि डेटा को विभाजित करना, पहले एक परिकल्पना पोस्ट हॉक को बदलना लेकिन टाइप I त्रुटियों में वृद्धि से बचना।

मैंने शीर्षक को अपडेट किया है ताकि मैं अपने प्रश्न के जोर को प्रतिबिंबित कर सकूं।

धन्यवाद, और भ्रम के लिए खेद है!



1
जो पहले से ही कहा गया है, उस पर एक और बिंदु लेते हुए: वैज्ञानिक पद्धति का सार परिकल्पना करना है और फिर उन्हें गलत साबित करने की कोशिश करें कि वे सिद्धांत बन सकते हैं (यदि मिथ्याकरण विफल हो जाता है)। मछली पकड़ने के अभियान पर जाना एक परिकल्पना को खोजने का एक वैध तरीका है जो बाद के एक प्रयोग में मिथ्या है, लेकिन आप कभी भी एक परिकल्पना को गलत साबित नहीं कर सकते हैं। विशेष रूप से, यदि आप अपनी परिकल्पना को समायोजित करने के लिए खुले हैं, तो आप इसे गलत साबित नहीं कर रहे हैं। इसके बजाय, जब आप समायोजित करते हैं, तो आप अपनी अनुचित परिकल्पना को गलत साबित कर रहे हैं और एक नई परिकल्पना बना रहे हैं।
Wrzlprmft

@ जोना, यह एक बेहतरीन पेपर है। मैं पहले से ही Ioannidis और Schooler दोनों द्वारा पेपर पढ़ चुका हूं, लेकिन सीमन्स एट अल आश्चर्यजनक रूप से समस्या का चित्रण करता है।
पोस्ट-होक

1
मैं सोच रहा हूँ कि क्या आपको यह पेपर आपके प्रश्न के लिए भी प्रासंगिक लगेगा : stat.columbia.edu/~GLman/research/published/multiple2f.pdf । यह ठीक उसी विषय पर नहीं है, लेकिन यह इसके एक पहलू को संबोधित करता है।
a11msp

1
डेटा के कारण आपको अपनी परिकल्पना को बदलना पड़ सकता है ... लेकिन उस मामले में आपको नई परिकल्पना की पुष्टि करने के लिए नए डेटा को इकट्ठा करना शुरू करना होगा।
केशलम २lam

जवाबों:


54

निश्चित रूप से आप मछली पकड़ने के अभियान पर जा सकते हैं, जब तक आप स्वीकार करते हैं कि यह मछली पकड़ने का अभियान है और इसे इस तरह से मानते हैं। ऐसे के लिए एक अच्छा नाम "खोजपूर्ण डेटा विश्लेषण" है।

एक बेहतर सादृश्य एक लक्ष्य पर शूटिंग हो सकती है:

आप एक लक्ष्य पर गोली मार सकते हैं और मना सकते हैं कि क्या आप बैल की आंख मारते हैं।

आप अपनी बंदूक के गुणों का परीक्षण करने के लिए एक लक्ष्य के बिना शूट कर सकते हैं।

लेकिन यह एक दीवार पर शूट करने के लिए धोखा दे रहा है और फिर बुलेट छेद के चारों ओर एक लक्ष्य पेंट करें।

इसके साथ कुछ समस्याओं से बचने का एक तरीका एक प्रशिक्षण डेटा सेट में अन्वेषण करना है और फिर इसे एक अलग "परीक्षण" डेटा सेट पर परीक्षण करना है।


13
पीटर के जवाब में सुधार करना कठिन है। बहुत से डेटा ड्रेजिंग के साथ दुर्भाग्यपूर्ण समस्या लेखकों द्वारा प्रवेश की कमी है कि परिकल्पना पूरी तरह से पूर्व-निर्दिष्ट नहीं थी, अर्थात, 'खोजकर्ता' शब्द का उपयोग नहीं करना। कई, कई शोधकर्ता डेटा को पबिसिशबल पेपर पाने के लिए और सत्यापन के किसी भी प्रयास का पालन नहीं कर रहे हैं (जो उन्हें अक्सर निराश करते हैं)।
फ्रैंक हरेल

2
फ्रैंक हरेल की टिप्पणी को एक कदम आगे बढ़ाते हुए: यह कुछ डेटा का पता लगाने और एक पेचीदा खोज प्रकाशित करने के लिए वैध है ... एक पेचीदा, खोजपूर्ण खोज के रूप में जो पुन: प्रस्तुत / मान्य होने के अधीन है। नकारात्मक पक्ष यह है: यदि कोई और आपके निष्कर्षों की पुष्टि करता है, तो वे अच्छी तरह से गौरव प्राप्त कर सकते हैं, और यदि अन्य आपके परिणामों की पुष्टि नहीं करते हैं तो आप एक मूर्ख सहसंबंध द्वारा मूर्ख बनाए गए थे। बुरा है अगर तुम्हारे पास बड़ा अहंकार है। उल्लेख करने के लिए आपको अपने डेटा और प्रक्रियाओं को सार्वजनिक रूप से उपलब्ध कराने की आवश्यकता नहीं होगी, जो कई क्षेत्रों में कई चिकित्सक नहीं कर पाएंगे। और आपको आगे बढ़ने के बजाय नए डेटा का पालन करना चाहिए।
वेन

11
+1But it's cheating to shoot at a wall and then paint a target around the bullet hole.
वर्नरसीडी

3
@ पोस्ट-हॉक अच्छी तरह से, यह भौहें नहीं उठाना चाहिए , लेकिन यह हो सकता है। निर्भर करता है कि किसकी आंखें भौंह के नीचे हैं!
पीटर फ्लॉम - मोनिका

2
टेक्सास शार्पशूटर
फाल्सी

25

मछली पकड़ने के अभियान के साथ समस्या यह है: यदि आप पर्याप्त परिकल्पनाओं का परीक्षण करते हैं, तो उनमें से एक को कम पी मूल्य के साथ पुष्टि की जाएगी। एक ठोस उदाहरण देता हूं।

कल्पना कीजिए कि आप एक महामारी विज्ञान अध्ययन कर रहे हैं। आपने 1000 रोगियों को पाया है जो एक दुर्लभ स्थिति से पीड़ित हैं। आप जानना चाहते हैं कि उनमें क्या समानता है। इसलिए आप परीक्षण करना शुरू करते हैं - आप यह देखना चाहते हैं कि क्या इस नमूने में किसी विशेष विशेषता को ओवररप्रेट किया गया है। प्रारंभ में आप लिंग, जाति, कुछ विशिष्ट पारिवारिक इतिहास (50 वर्ष की आयु से पहले हृदय रोग से पिता की मृत्यु हो गई) के लिए परीक्षण करते हैं, लेकिन अंततः, जैसा कि आपको कुछ भी करने में परेशानी हो रही है कि "चिपक जाती है", आप सभी प्रकार के अन्य कारकों को जोड़ना शुरू करते हैं जो बस रोग से संबंधित हो सकता है:

  • शाकाहारी है
  • कनाडा की यात्रा की है
  • कॉलेज खत्म
  • विवाहित है
  • बच्चे हैं
  • बिल्लियों है
  • कुत्ते हैं
  • प्रति सप्ताह कम से कम 5 गिलास रेड वाइन पीता है
    ...

अब यहाँ बात है। यदि मैं पर्याप्त "यादृच्छिक" परिकल्पनाओं का चयन करता हूं, तो यह संभावना बनने लगती है कि इनमें से कम से कम 0.05 से कम एपी मूल्य का परिणाम होगा - क्योंकि पी मूल्य का बहुत सार है "अशक्त परिकल्पना को अस्वीकार करने के लिए गलत होने की संभावना कोई प्रभाव नहीं है ”। अलग-अलग रखो - औसतन, प्रत्येक 20 फर्जी परिकल्पना के लिए जो आप परीक्षण करते हैं, उनमें से एक आपको <0.05 का एपी देगा

यह SOK XKCD कार्टून http://xkcd.com/882/ में बहुत अच्छी तरह से संक्षेपित है :

यहाँ छवि विवरण दर्ज करें

त्रासदी यह है कि भले ही एक व्यक्ति लेखक महत्व को देखने के लिए एक नमूने पर 20 अलग-अलग परिकल्पना परीक्षण नहीं करता है, वही काम करने वाले 19 अन्य लेखक हो सकते हैं; और जो एक सहसंबंध "खोजता है" के पास अब लिखने के लिए एक दिलचस्प पेपर है, और एक जिसे प्रकाशन के लिए स्वीकार किए जाने की संभावना है ...

यह अप्रासंगिक निष्कर्षों के लिए एक दुर्भाग्यपूर्ण प्रवृत्ति की ओर जाता है। एक व्यक्तिगत लेखक के रूप में इससे बचाव का सबसे अच्छा तरीका बार को उच्चतर सेट करना है। व्यक्तिगत कारक के परीक्षण के बजाय, अपने आप से पूछें "अगर मैं एन हाइपोथेसिस का परीक्षण करता हूं, तो कम से कम एक झूठी सकारात्मक के साथ आने की संभावना क्या है"। जब आप वास्तव में "मछली पकड़ने की परिकल्पना" का परीक्षण कर रहे हैं, तो आप इस के खिलाफ गार्ड करने के लिए एक बोनफेरोनि सुधार करने के बारे में सोच सकते हैं - लेकिन लोग अक्सर नहीं करते हैं।

डॉ। इयानॉइड्स द्वारा कुछ दिलचस्प पेपर थे - विशेष रूप से इस विषय पर अटलांटिक मासिक में प्रोफाइल

कई व्यावहारिक जवाबों के साथ यह पहले वाला प्रश्न भी देखें ।

अपने प्रश्न के सभी पहलुओं पर बेहतर प्रतिक्रिया के लिए अपडेट करें:

यदि आप डरते हैं कि आप "फिशिंग" कर सकते हैं, लेकिन आप वास्तव में नहीं जानते हैं कि क्या परिकल्पना तैयार की जाती है, तो आप निश्चित रूप से अपने डेटा को "अन्वेषण", "प्रतिकृति" और "पुष्टि" खंडों में विभाजित कर सकते हैं। सिद्धांत रूप में, इससे आपको पहले बताए गए जोखिमों के लिए अपने जोखिम को सीमित करना चाहिए: यदि आपके पास अन्वेषण डेटा में 0.05 का मान है और आपको प्रतिकृति और पुष्टिकरण डेटा में समान मूल्य मिलता है, तो आपके गलत होने का जोखिम है। "इसे सही तरीके से करने" का एक अच्छा उदाहरण ब्रिटिश मेडिकल जर्नल में दिखाया गया था (17+ के प्रभाव कारक के साथ एक बहुत ही सम्मानित प्रकाशन)

अशक्त महिलाओं में अपूर्ण गर्भावस्था से जुड़े कारकों की खोज और पुष्टि: भावी काउहोट अध्ययन, चैपल एट अल

यहाँ प्रासंगिक पैराग्राफ है:

हमने 5628 महिलाओं के डेटासेट को तीन भागों में विभाजित किया है: ऑस्ट्रेलिया और न्यूजीलैंड की दो तिहाई महिलाओं की एक अन्वेषण डाटासेट, यादृच्छिक (n = 2129) पर चुनी गई; ऑस्ट्रेलिया और न्यूजीलैंड की महिलाओं की शेष तीसरी महिलाओं का स्थानीय प्रतिकृति डेटासेट (n = 1067); और यूनाइटेड किंगडम और आयरलैंड गणराज्य से 2432 यूरोपीय महिलाओं की एक बाहरी, भौगोलिक रूप से अलग पुष्टि डेटासेट।

साहित्य में थोड़ा पीछे जाएं, तो Altman et al allele द्वारा एक अच्छा पेपर है "प्रैग्नेंसी एंड प्रोग्नोस्टिक रिसर्च: प्रोगोनिस्टिक मॉडल को मान्य करना" जो बहुत अधिक गहराई में जाता है, और यह सुनिश्चित करने के तरीके बताता है कि आप नहीं गिरते हैं यह गलती। लेख से "मुख्य बिंदु":

क्लिनिकल प्रैक्टिस में अनलिमिटेड मॉडल्स का इस्तेमाल नहीं किया जाना चाहिए। जब ​​किसी प्रोगोनॉस्टिक मॉडल को वेरिफाई किया जाता है, तो कैलिब्रेशन और भेदभाव का मूल्यांकन किया जाना चाहिए। मॉडल विकसित करने के लिए इस्तेमाल किए जाने वाले डेटा से वैलिडेशन अलग-अलग डेटा पर किया जाना चाहिए। विकास के तरीकों में कमियों के कारण या क्योंकि नया नमूना मूल से बहुत अलग है

विशेष रूप से उस सुझाव पर ध्यान दें, जो सत्यापन (I paraphrase) अन्य स्रोतों के डेटा के साथ किया जाता है - यानी यह आपके डेटा को मनमाने ढंग से सबसेट में विभाजित करने के लिए पर्याप्त नहीं है, लेकिन आपको वह करना चाहिए जो आप एक सेट से "सीखने" को साबित कर सकें। प्रयोगों के एक अलग सेट से डेटा पर लागू किया जा सकता है। यह एक उच्च पट्टी है, लेकिन यह उस जोखिम को कम करता है जो आपके सेटअप में एक व्यवस्थित पूर्वाग्रह "परिणाम" बनाता है जिसे स्वतंत्र रूप से सत्यापित नहीं किया जा सकता है।

यह एक बहुत ही महत्वपूर्ण विषय है - सवाल पूछने के लिए धन्यवाद!


7
यह ध्यान में आता है: xkcd.com/882
जेन्स

2
@jens - जो मैंने दिया, उसकी तुलना में कहीं अधिक स्पष्ट व्याख्या है ... उस लिंक के लिए धन्यवाद। हमेशा की तरह - करते एक छोटे से zinger के लिए कार्टून पर अपने माउस मंडराना।
फ्लोरिस

आयोनाइड्स और लेहरर लेख वह रास्ता था जिसने मुझे यहां तक ​​पहुंचाया। आपका उदाहरण @jona द्वारा उल्लिखित सीमन्स एट अल के उदाहरण के समान है । यह टाइप I त्रुटियों की वृद्धि की संभावना को समझाने का एक बहुत अच्छा तरीका है, लेकिन क्या अन्य कारण हैं कि यह खराब है?
पोस्ट-होक

1
सामान्य रूप से डेटा ड्रेजिंग के साथ समस्या यह है कि आप "संबंध" के साथ "सहसंबंध" को भ्रमित करते हैं। पहले एक उचित परिकल्पना के साथ आने से , फिर यह पुष्टि करने में कि यह टिप्पणियों को समझाने में मदद करता है, आप दोनों को भ्रमित करने के जोखिम को सीमित करते हैं। "बिग डेटा" अक्सर दूसरे तरीके से चला जाता है - उनका मोडस ऑपरेंडी है "अगर मैं पर्याप्त डेटा का विश्लेषण करता हूं तो मुझे ऐसे पैटर्न दिखाई देंगे जो अतीत में सही थे और जो भविष्य में भी जारी रहेंगे"। कभी-कभी यह काम करता है, कभी-कभी ऐसा नहीं होता है। आंकड़े कभी भी सोच और समझ का विकल्प नहीं बनने चाहिए - केवल एक पुष्टि
फ्लोरिस

6
मुझे नहीं लगता कि प्राथमिक मुद्दा सहसंबंध बनाम करणीय है। केवल घटिया सहसंबंधी विश्लेषण करना आसान है, ताकि संघों की प्रतिकृति न हो।
फ्रैंक हरेल

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.