एक सांख्यिकीय रेफरी को नाराज कैसे करें?


102

मैंने हाल ही में कागजात में आंकड़ों की समीक्षा के आसपास सामान्य सिद्धांतों के बारे में एक सवाल पूछा था । मैं अब जो पूछना चाहता हूं, वह यह है कि विशेष रूप से आपको एक पेपर की समीक्षा करते समय चिढ़ होती है, यानी एक सांख्यिकीय रेफरी को वास्तव में परेशान करने का सबसे अच्छा तरीका क्या है!

एक उदाहरण प्रति उत्तर, कृपया।


क्या यह प्रारंभिक समीक्षा के जवाब में प्राप्त औचित्य तक विस्तृत है (जहां मामूली और / या प्रमुख संशोधन पूछे गए थे)?
chl

@chl: हाँ, क्यों नहीं।
csgillespie

जवाबों:


69

विशेष रूप से मुझे व्यक्तिगत रूप से परेशान करने वाले लोग हैं, जो स्पष्ट रूप से सांख्यिकीय सॉफ़्टवेयर के लिए उपयोगकर्ता-लिखित पैकेज का उपयोग करते हैं, लेकिन उन्हें ठीक से या बिल्कुल भी उद्धृत नहीं करते हैं, जिससे लेखकों को कोई श्रेय नहीं मिलता है। ऐसा करना विशेष रूप से महत्वपूर्ण है जब लेखक अकादमिया में होते हैं और उनकी नौकरियां उन प्रकाशन पत्रों पर निर्भर करती हैं जो उद्धृत हो जाते हैं । (शायद मुझे यह जोड़ना चाहिए कि, मेरे क्षेत्र में, कई अपराधी सांख्यिकीविद् नहीं हैं।)


2
मेरे लिए +1। यह मुझे निराश करता है, खासकर जब वे गलत बात का हवाला देते हैं और मैंने पैकेजों का हवाला देते हुए प्रासंगिक विवरण प्रदान किया है
गेविन सिम्पसन

3
प्रश्न: जब एक पैकेज का हवाला देते हैं, तो क्या आप विगनेट (यदि कोई मौजूद है) या स्वयं पैकेज का हवाला देते हैं?
ब्रैंडन बर्टेल्सन

7
@ ब्रेंडन: यदि पैकेज लेखक आपको मार्गदर्शन करने के लिए पर्याप्त परवाह करता है, तो उन्होंने इसका उत्तर एक ऐसे रूप में दिया है जिसे प्रशस्ति पत्र ("some_package") द्वारा लिया जाएगा
बेन बोल्कर

2
एक ऐतिहासिक कागज होने के अलावा, जो करना इतना आसान नहीं है, उद्धरण प्राप्त करने का सबसे आसान तरीका आपके पेपर में कम से कम एक त्रुटि छोड़ना है। फिर आप एक सुधार प्रकाशित कर सकते हैं, जो मूल पेपर का हवाला देता है। सुधार में एक त्रुटि छोड़ दें, और आप एक सुधार प्रकाशित कर सकते हैं जो मूल सुधार और मूल पेपर का संदर्भ देता है (मैंने 1 साल के स्नातक छात्र के रूप में ऐसी चीज देखी)। उद्धरणों की संख्या O (N ^ 2) प्रक्रिया के रूप में बढ़ती है, जहां N सुधारों की संख्या है।
मार्क एल। स्टोन

67

अच्छाई मुझे, बहुत सी बातें दिमाग में आती हैं ...

  • स्टेप वाइज रिग्रेशन

  • समूहों में निरंतर डेटा को विभाजित करना

  • पी-मान देते हैं लेकिन प्रभाव आकार का कोई माप नहीं है

  • माध्य और मानक विचलन का उपयोग करते हुए डेटा का वर्णन किए बिना यह बताता है कि डेटा अधिक-या-कम सममित और अनिमॉडल थे या नहीं

  • स्पष्ट कैप्शन के बिना आंकड़े (वे त्रुटि बार मानक त्रुटि हैं, या समूहों के भीतर मानक विचलन, या क्या?)


5
मैं स्टेप वाइज रिग्रेशन बुलेट को लेकर थोड़ा उत्सुक हूं। क्या स्टेप वाइज रिग्रेशन इतना बुरा करता है? क्या यह डेटा ड्रेजिंग और कई तुलना मुद्दा है?
क्रिस्टोफर अदन

17
समस्या यह है कि चरणबद्ध प्रक्रिया पूरी तरह से पी मानों के आधार पर "सामान्य" हीनतापूर्ण आँकड़ों के लिए सभी मान्यताओं और पूर्व शर्त को अमान्य कर देती है, जो तब बुरी तरह से पक्षपाती होती हैं ("अधिक महत्वपूर्ण" होने की दिशा में)। तो मूल रूप से, इसका जवाब "हां" है, इस चेतावनी के साथ कि कोई इन सभी एकाधिक तुलनाओं के लिए सिद्धांत रूप से सही हो सकता है (लेकिन जो मैंने कभी नहीं देखा है)। मेरा दृढ़ता से मानना ​​है कि यह एकमात्र सबसे महत्वपूर्ण कारण है कि मैं मनोविज्ञान में इतना शोध क्यों देखता हूं जिसे दोहराया नहीं जा सकता - जिसके कारण संसाधनों की भारी बर्बादी होती है।
स्टीफन कोलासा

10
@ स्टीफन: मैं मानता हूं, सौतेला व्यवहार एक बुरा विचार है। हालांकि, जबकि उन्होंने इसे अभी तक मनोवैज्ञानिक तरीकों से नहीं बनाया है, लेकिन कई चयन प्रक्रियाएं हैं जो अनुमानों और मानक त्रुटियों को समायोजित करके ओवरफिटिंग से संबंधित पूर्वाग्रह के लिए समायोजित करती हैं। यह आमतौर पर कई तुलनाओं के मुद्दे के रूप में नहीं सोचा जाता है। उन्हें संकोचन विधियों के रूप में जाना जाता है। इस थ्रेड में मेरी प्रतिक्रिया देखें < आंकड़े.stackexchange.com/questions/499/… > और लारसो पर हैरेल की "रिग्रेशन मॉडलिंग रणनीतियाँ" या तिब्शीरानी।
ब्रेट

5
@ ब्रेट मैगिल: उस पर +1, और हां, मैं संकोचन और लासो के बारे में जानता हूं। अब मुझे मनोवैज्ञानिकों को समझाने के लिए किसी तरह की आवश्यकता है कि ये समझ में आए ... लेकिन लोगों को आत्मविश्वास सीमित करने के लिए मनोवैज्ञानिकों को प्राप्त करने के लिए बहुत सीमित सफलता के साथ लड़ रहे हैं, इसलिए मैं मनोवैज्ञानिकों के बारे में बहुत आशावादी नहीं हूं कि अगले में संकोचन स्वीकार करें बीस साल।
Stephan Kolassa

10
मैं यह भी तर्क दूंगा कि मनोविज्ञान में अधिकतम भविष्यवाणी करना आम तौर पर सैद्धांतिक उद्देश्य नहीं है, फिर भी सौतेलापन प्रतिगमन भविष्यवाणी को अधिकतम करने के बारे में है, यद्यपि एक अर्ध-पार्सिमेनस तरीके से। इस प्रकार, आमतौर पर प्रक्रिया और प्रश्न के बीच एक डिस्कनेक्ट होता है।
जेरोमे एंग्लीम

41

Irene स्ट्रैटन और सहकर्मी ने एक निकट से संबंधित प्रश्न के बारे में एक छोटा पेपर प्रकाशित किया:

स्ट्रैटन आईएम, नील ए। यह सुनिश्चित करने के लिए कि आपका पेपर सांख्यिकीय समीक्षक द्वारा अस्वीकार कर दिया गया हैडायबिटिक मेडिसिन 2005; 22 (4): 371-373।


लिंक टूट गया है।
ओलिवर एंजेल


32

नकली परिणाम उत्पन्न करने के लिए उपयोग किया गया कोड प्रदान नहीं किया गया है। कोड के लिए पूछने के बाद, यह रेफरी जनरेट किए गए डेटासेट पर चलाने के लिए इसे प्राप्त करने के लिए अतिरिक्त काम की मांग करता है।


2
और यह खराब स्वरूपित, अप्रमाणित है, और अशोभनीय चर और फ़ंक्शन नामों का उपयोग करता है। ऊऊह हाँ।
n

30

साहित्यिक चोरी (सैद्धांतिक या कार्यप्रणाली)। मेरी पहली समीक्षा वास्तव में 10 साल पहले प्रकाशित एक अच्छी तरह से स्थापित पद्धति संबंधी पेपर से कई अप्रकाशित प्रतिलिपि / पेस्ट का पता लगाने वाले पेपर के लिए थी।

बस इस विषय पर कुछ दिलचस्प कागजात मिले: विज्ञान में प्रामाणिकता और साहित्यिक चोरी

एक ही नस में, मैं मिथ्याकरण (डेटा या परिणामों में से) सबसे खराब पाता हूं ।


20
मुझे याद दिलाता है कि मेरे शुरुआती दिनों में एक रेफरी के रूप में मैंने एक लंबे समय तक एक सांख्यिकीय पेपर की समीक्षा करने में बहुत समय बिताया जो अंततः उस विशेष पत्रिका द्वारा खारिज कर दिया गया था, लेकिन दूसरे रेफरी और मैंने विधि के लिए एक अधिक उपयोगी आवेदन का सुझाव दिया, और मैंने एक बीजीय प्रमाण को भी छोड़ दिया पांडुलिपि में असंतोषजनक सिमुलेशन अध्ययन को बदलने के लिए। लेखकों को तब से दो प्रकाशित पत्र मिले हैं। मैं इससे नाराज़ नहीं हूँ , लेकिन "हम उपयोगी टिप्पणियों के लिए कागज के एक पुराने संस्करण के रेफरी का शुक्रिया अदा करते हैं" जैसे एक पावती अच्छे शिष्टाचार थे।
onestop

1
@onestop हाँ, मैं सोच सकता हूँ कि ऐसी स्थिति कितनी निराशाजनक हो सकती है ...
chl

24
कुछ हफ़्ते पहले मुझे समीक्षा करने के लिए एक पेपर दिया गया था और पाया गया कि इसका 85% एक ही पत्रिका में ... एक ही लेखक द्वारा प्रकाशित किया गया था। वह भी, अभी भी साहित्यिक चोरी माना जाता है। पिछले कई वर्षों से मैंने किसी भी समीक्षा को करने से पहले वेब सर्च इंजनों को - विशेष रूप से अमूर्त, परिचय, और निष्कर्ष - - का नियमित रूप से कागजात के टुकड़े प्रस्तुत किए हैं । इससे पहले कि मैं इसे पढ़ने में किसी भी समय निवेश करने से पहले सुनिश्चित करूं कि काम मूल है।
whuber

7
+1, @whuber। एक कार्यप्रणाली पत्रिका के संपादक के रूप में, मुझे अक्सर यह पता लगाने का कठिन काम होता है कि क्या योगदान (एक नियम के रूप में, अच्छी तरह से स्थापित लेखकों से, युवा लेखकों ने अभी तक उस प्रक्षेपवक्र को नहीं दिया है) वारंट ने प्रकाशन को यह दिया कि वे सब ' किया जाता है कि वे आठ लेगो ब्लॉकों को एक अलग तरीके से फिर से जोड़ रहे हैं जिसमें उनके पिछले पांच पेपर शामिल थे। यह मैं पचास कागजात पूर्ववर्ती इन लेखकों प्रकाशित में योगदान भी सवाल की ओर जाता है :(।
StasK

26

जब हम लेखकों के लिए पूछते हैं

  1. हमारे पास एक विचार के बारे में मामूली टिप्पणी (इस अर्थ में, यह कागज को खारिज करने का एक कारण नहीं माना जाता है लेकिन सिर्फ यह सुनिश्चित करने के लिए कि लेखक एक और पीओवी पर चर्चा करने में सक्षम हैं), या
  2. अस्पष्ट या विरोधाभासी परिणाम,

और लेखक वास्तव में मामले में जवाब नहीं देते हैं (1) या एमएस में गायब परिणाम (2)।


7
रहस्यमय ढंग से गायब होने वाले परिणाम स्वचालित अस्वीकृति, इमो होना चाहिए। मुझे यकीन है कि यह "पर्दे के पीछे" (अर्थात पेपर जमा होने से पहले) होता है, लेकिन यह "चेरी पिकिंग" का स्पष्ट प्रमाण है कि कागज के सामान्य पाठकों को कभी पता नहीं चलेगा।
मैक्रो

3
एक खुली सहकर्मी समीक्षा प्रणाली का दूसरा कारण।
fmark

24

पी-वैल्यूज़ और प्रभाव आकार को भ्रमित करना (अर्थात मेरा प्रभाव बड़ा है क्योंकि मेरे पास बहुत कम पी-वैल्यू है)।

प्रभाव के आकार को छोड़कर, लेकिन पी-वैल्यू देने के स्टेफान के जवाब से थोड़ा अलग है । मैं मानता हूं कि आपको दोनों को देना चाहिए (और उम्मीद है कि अंतर को समझें!)


23

प्रभाव आकारों सहित नहीं।

शोध के दौरान पी-आईएनजी (मुझे उस लाइन के लिए मेरे पसंदीदा ग्रेड स्कूल के प्रोफेसर को श्रेय देना होगा)।

अंकों की एक पूर्ववर्ती संख्या देते हुए (पुरुषों में महिलाओं की तुलना में 3.102019 पाउंड अधिक)

पृष्ठ संख्याओं सहित नहीं (जो कि समीक्षा करना कठिन बनाता है)

आंकड़े और तालिकाओं का दुरुपयोग

(जैसा कि पहले ही उल्लेख किया गया है - निरंतर चर को वर्गीकृत करना और वर्गीकृत करना)


7
(+1) ज़ोर से हँसे "अंकों की एक पूर्ववर्ती संख्या दे रहा था (पुरुषों ने महिलाओं की तुलना में 3.102019 पाउंड अधिक प्राप्त किया")।
मैक्रो

19

जब वे पर्याप्त रूप से अपने विश्लेषण की व्याख्या नहीं करते हैं और / या सरल त्रुटियों को शामिल करते हैं जो वास्तव में क्या किया गया था यह काम करना मुश्किल बनाता है। इसमें अक्सर बहुत सारे शब्दजाल को फेंकना शामिल है, स्पष्टीकरण के माध्यम से, जो लेखक को महसूस होने से ज्यादा अस्पष्ट है और इसका दुरुपयोग भी हो सकता है।


सहमत - वैज्ञानिक सामग्री का मूल्यांकन करने से पहले लेखक (ओं) को समझने के लिए संघर्ष करना वास्तव में कष्टप्रद है।
लॉरेंट

5
मैं सहमत हूं, लेकिन मुझे यह और भी अधिक कष्टप्रद लगता है जब एक समीक्षक आपको छोड़ता है (या सामग्री को स्थानांतरित करने के लिए कहता है) विश्लेषण के बारे में वास्तविक, बहुत महत्वपूर्ण विवरण क्या हैं। यह समस्या इसे इसलिए बनाती है कि बहुत सारे विज्ञान / सामाजिक विज्ञान के पेपर जो कि थोड़ा जटिल विश्लेषण करते हैं, उस संबंध में बहुत गूढ़ हैं।
मैक्रो

16

अवलोकन डेटा में संघों का वर्णन करने के लिए कारण भाषा का उपयोग करना जब छोड़े गए चर लगभग निश्चित रूप से एक गंभीर चिंता का विषय है।


3
मैं सहमत हूं कि शोधकर्ताओं को अवलोकन अनुसंधान डिजाइनों की देयताओं को समझना चाहिए, विशेष रूप से छोड़े गए चर से संबंधित हैं, लेकिन मुझे नहीं लगता कि कारण भाषा से बचने के लिए ऐसा होता है। विशेष रूप से कारण भाषा का उपयोग करने के बचाव में एक अधिक विस्तृत तर्क के लिए ह्यूबर्ट ब्लाल्क के काम को देखें, जो गैर-प्रायोगिक अनुसंधान में उनकी पुस्तक कॉज़ल इनफेरेंस हैं।
एंडी डब्ल्यू

3
(+1) महामारी विज्ञान अनुसंधान के साथ यह मेरी सबसे बड़ी समस्या हो सकती है।
मैक्रो

14

जब लेखक एक सांख्यिकीय परीक्षण का उपयोग करते हैं, जो वे जानते हैं (मेरे क्षेत्र में, आमतौर पर एक टी-परीक्षण या एक एनोवा), विज्ञापन infinitum, चाहे वह उपयुक्त हो। मैंने हाल ही में एक पेपर की समीक्षा की, जहां लेखक एक दर्जन अलग-अलग उपचार समूहों की तुलना करना चाहते थे, इसलिए उन्होंने उपचार के हर संभव जोड़े के लिए एक दो-नमूना टी-परीक्षण किया था ...


13

मौजूदा अवधारणाओं के लिए नए शब्दों के साथ आ रहा है, या, इसके विपरीत, मौजूदा शब्दों का उपयोग करके कुछ अलग करने के लिए।

मौजूदा शब्दावली अंतर में से कुछ लंबे समय से साहित्य में बसे हुए हैं: अर्थमिति में बायोसैटिस्टिक्स बनाम पैनल डेटा में अनुदैर्ध्य डेटा; समाजशास्त्र में कारण और प्रभाव संकेतक बनाम मनोविज्ञान में प्रारंभिक और चिंतनशील संकेतक; आदि मैं अभी भी उनसे नफरत करता हूं, लेकिन कम से कम आप उनमें से प्रत्येक को अपने संबंधित साहित्य में कुछ हजार संदर्भ पा सकते हैं। सबसे हालिया कारण यह है कि कार्य-कारण साहित्य में निर्देशित चक्रीय रेखांकन पर यह पूरी तरह से काम है: सबसे अधिक, यदि नहीं, तो इन सभी में पहचान और अनुमान के सिद्धांत को अर्थशास्त्रियों द्वारा 1950 के दशक में एक साथ समीकरणों के नाम से विकसित किया गया है।

जो शब्द दोहरा है, यदि ट्रिपल नहीं है, अर्थ, "मजबूत" है, और विभिन्न अर्थ अक्सर विरोधाभासी होते हैं। "रोबस्ट" मानक त्रुटियां दूर के आउटलेर्स के लिए मजबूत नहीं हैं; इसके अलावा, वे मॉडल से ग्रहण किए गए विचलन को छोड़कर किसी भी चीज के खिलाफ मजबूत नहीं हैं, और अक्सर छोटे नमूना प्रदर्शन को खराब करते हैं। व्हाइट की मानक त्रुटियां सीरियल या क्लस्टर सहसंबंधों के खिलाफ मजबूत नहीं हैं; एसईएम में "मजबूत" मानक त्रुटियां मॉडल संरचना (छोड़े गए पथ या चर) के गलत निर्धारण के खिलाफ मजबूत नहीं हैं। जैसे अशक्त परिकल्पना महत्व परीक्षण के विचार के साथ, किसी पर उंगली उठाना असंभव है और कहते हैं: "आप इस अवधारणा को बनाने के लिए शोधकर्ताओं की कई पीढ़ियों को भ्रमित करने के लिए जिम्मेदार हैं जो वास्तव में इसके नाम के लिए खड़ा नहीं है"।


1
मुझे दोनों पापों को स्वीकार करना होगा: मैं अपने डेटा को "एक पदानुक्रमित संरचना होने के रूप में वर्णित करता हूं: जब मेरे पास 1: n संबंध (प्रत्येक नमूने के कई माप, प्रति रोगी के कई नमूने) होते हैं। कुछ बिंदु पर मैंने गलती से सीखा। को "क्लस्टर" डेटा संरचना कहा जाता है - अब मैं दोनों शब्दों का उपयोग करता हूं। लेकिन मुझे अभी भी नहीं पता है कि मुझे यह शब्द कैसे मिल सकता है, मैंने अपने डेटा संरचना का वर्णन करने के लिए शब्द के लिए बहुत उत्सुकता से देखा ... दूसरा तरीका गोल: मैं उन तकनीकों का उपयोग करता हूं जिन्हें रिमोट सेंसिंग में सॉफ्ट वर्गीकरण कहा जाता है। मेरा क्षेत्र (केमोमेट्रिक्स) इसे काफी भिन्न अर्थों के साथ उपयोग करता है।
cbeleites

2
यह सब ठीक है - आप इस संरचना को संदर्भित करने के तरीकों की अपनी सूची में "मल्टीलेवल" जोड़ सकते हैं। "क्लस्टर्ड" का आमतौर पर मतलब है कि टिप्पणियों को सहसंबद्ध के रूप में जाना जाता है, लेकिन कोई भी मॉडल की परवाह नहीं करता है क्योंकि यह सहसंबंध प्राथमिक हित का नहीं है, और ऐसे तरीकों से दूर हो जाता है जो इस तरह के सहसंबंध के लिए मजबूत होते हैं, जैसे जीईई। आपके पास कुछ है जो दोहराया उपायों MANOVA की तरह है। एक स्टैटा पैकेज है gllammजो आपके डेटा के बारे में एक बहुस्तरीय / पदानुक्रमित डेटा के रूप में सोचता है, लेकिन अधिकांश अन्य पैकेज कई मापों को चर / स्तंभ और नमूने के रूप में अवलोकन / पंक्तियों के रूप में सोचते हैं।
9

इनपुट के लिए धन्यवाद। खैर, आजकल मैं निश्चित रूप से यहां पूछ रहा हूं कि इसे कैसे कहा जाता है ... यह बिल्कुल दोहराया माप नहीं है: आमतौर पर मैं एक संख्या मापता हूं (परिमाण का क्रम: 10 ^ 2 और 10 ^ 4 के बीच) नमूना पर अलग-अलग स्पॉट। विभिन्न घटकों के झूठे रंग के नक्शे का उत्पादन करें, और प्रत्येक माप में पहले से ही 10 ^ 2 - 10 ^ 3 अवलोकन (स्पेक्ट्रम में तरंगदैर्ध्य) हैं। प्रत्येक नमूने के भीतर, कई स्पेक्ट्रा अत्यधिक सहसंबद्ध हैं, लेकिन सभी नहीं: नमूने सजातीय नहीं हैं। ...
cbeleites

1
... "क्लस्टर" का आपका वर्णन बहुत अच्छा लगता है जैसे हम क्या करते हैं। लेकिन मैं सत्यापन के लिए नमूनों को विभाजित करने का ध्यान रखता हूं, कहते हैं कि मेरे पास प्रभावी नमूना आकार के बारे में कोई विचार नहीं है (इसके अलावा इसमें कम से कम वास्तविक नमूनों की संख्या शामिल है), और कभी-कभी यह दिखाते हैं कि प्रत्येक के सभी माप हैं नमूना वास्तव में मॉडल प्रशिक्षण के लिए मदद करता है।
cbeleites

1
दिलचस्प और चुनौतीपूर्ण डेटा, निश्चित रूप से।
StasK

11

लापता डेटा का शून्य विचार।

कई व्यावहारिक अनुप्रयोग डेटा का उपयोग करते हैं जिनके लिए कम से कम कुछ लापता मान हैं। महामारी विज्ञान में यह निश्चित रूप से बहुत सही है। मिसिंग डेटा कई सांख्यिकीय तरीकों के लिए समस्याएं प्रस्तुत करता है - रैखिक मॉडल सहित। रैखिक मॉडल के साथ गुम डेटा को अक्सर किसी भी कोवरिएट्स पर किसी भी लापता डेटा के साथ मामलों को हटाने के माध्यम से निपटा जाता है। यह एक समस्या है, जब तक कि एक धारणा के तहत डेटा गायब नहीं होता है कि डेटा पूरी तरह से रैंडम (MCAR) में गुम हो रहे हैं।

शायद 10 साल पहले, रैखिक मॉडल से परिणाम प्रकाशित करने के लिए यह उचित था कि लापता होने पर कोई विचार नहीं किया जाएगा। मैं निश्चित रूप से इसका दोषी हूं। हालांकि, कई प्रतिरूपण के साथ लापता डेटा से निपटने के तरीके के बारे में बहुत अच्छी सलाह अब व्यापक रूप से उपलब्ध है, जैसे कि सांख्यिकीय पैकेज / मॉडल / लाइब्रेरी / आदि। लापता होने पर अधिक उचित मान्यताओं के तहत अधिक उपयुक्त विश्लेषण की सुविधा के लिए।


1
शिक्षित करने की कोशिश की भावना में, क्या आप अधिक उत्थान कर सकते हैं? आप क्या विचार करते हैं - यह मानते हुए कि यह मौजूद है या इसके सामने सांख्यिकीय विश्लेषण को समायोजित करना (जैसे कि प्रतिरूपण)। लागू होने पर मैं दबाने की कोशिश करता हूं। रुचि के सहसंयोजकों द्वारा लापता मूल्यों की तालिकाएं, लेकिन यह स्पष्ट नहीं है कि क्या इस टिप्पणी द्वारा "विचार" के लिए पर्याप्त है।
एंडी डब्ल्यू

8

रिपोर्टिंग प्रभाव है कि "महत्व (दृष्टिकोण <उदाहरण के लिए पी। 10) और फिर उनके बारे में लिखना जैसे कि उन्होंने अधिक कड़े और स्वीकार्य स्तर पर महत्व प्राप्त किया था। कई स्ट्रक्चरल इक्वेशन मॉडल्स चलाना जो नेस्टेड नहीं थे और फिर उनके बारे में लिख रहे थे। नेस्टेड थे। एक अच्छी तरह से स्थापित विश्लेषणात्मक रणनीति लेना और इसे प्रस्तुत करना जैसे कि किसी ने पहले कभी इसका इस्तेमाल करने के बारे में नहीं सोचा था। शायद यह एनआईटी डिग्री के लिए साहित्यिक चोरी के रूप में योग्य है।


शायद यह साहित्यिक चोरी के बजाय पहिया को फिर से मजबूत कर रहा है?
गुरित

7

मैं निम्नलिखित दो लेखों की सिफारिश करता हूं:

मार्टिन ब्लैंड:
सांख्यिकीय रेफरी को कैसे अपग्रेड करें
यह मार्टिन ब्लैंड द्वारा दिए गए वार्ता की एक श्रृंखला पर आधारित है, साथ ही अन्य सांख्यिकीय रेफरी के डेटा ('कम प्रतिक्रिया दर के साथ एक सुविधा नमूना')। यह सांख्यिकीय रेफरी को परेशान करने से बचने के लिए '[h] उल्लू की 11-बिंदु सूची के साथ समाप्त होता है।

स्टियन लिडरसन:
सांख्यिकीय समीक्षा: अक्सर दी जाने वाली टिप्पणियां
यह हालिया पत्र (प्रकाशित 2014-2015) लेखक की 14 सबसे सामान्य समीक्षा टिप्पणियों की सूची पर आधारित है। वैज्ञानिक पत्रों की 200 सांख्यिकीय समीक्षाएं (किसी विशेष पत्रिका में)। प्रत्येक टिप्पणी में समस्या का संक्षिप्त विवरण और निर्देश है कि विश्लेषण / रिपोर्टिंग कैसे ठीक से की जाए । उद्धृत संदर्भों की सूची दिलचस्प पत्रों का खजाना है।


लिडर्सन की सूची दिलचस्प है। मुझे लगता है कि मैं उनमें से कुछ से असहमत हूं। । ।
स्टेट्सटूडेंट

6

मैं सबसे अधिक (और सबसे अधिक बार) "सत्यापन" से नाराज हूं, जो कि पूर्वानुमानित मॉडलों के सामान्यीकरण त्रुटि पर लक्षित है, जहां परीक्षण डेटा स्वतंत्र नहीं है (उदाहरण के लिए आमतौर पर प्रति मरीज में कई माप, आउट-ऑफ-बूटस्ट्रैप या क्रॉस सत्यापन विभाजन माप नहीं रोगियों )।

इससे भी अधिक कष्टप्रद, कागजात जो इस तरह के त्रुटिपूर्ण क्रॉस सत्यापन परिणाम देते हैं और साथ ही एक स्वतंत्र परीक्षण सेट है जो क्रॉस सत्यापन के ओवरोप्टिमिस्टिक पूर्वाग्रह को प्रदर्शित करता है लेकिन एक भी शब्द नहीं है कि क्रॉस सत्यापन का डिज़ाइन गलत है ...

(यदि एक ही डेटा प्रस्तुत किया जाएगा तो मुझे पूरी तरह से खुशी होगी "हमें पता है कि क्रॉस सत्यापन को रोगियों को विभाजित करना चाहिए, लेकिन हम सॉफ्टवेयर के साथ फंस गए हैं यह अनुमति नहीं देता है। इसलिए हमने इसके अलावा परीक्षण रोगियों के एक स्वतंत्र सेट का परीक्षण किया। ")

(मुझे यह भी पता है कि बूटस्ट्रैपिंग = रिप्लेसमेंट के साथ रेज़मैपलिंग आमतौर पर क्रॉस वेलिडेशन से बेहतर होता है = रिप्लेसमेंट रिप्लेसमेंट के बिना। हालांकि, हम स्पेक्ट्रोस्कोपिक डेटा (नकली स्पेक्ट्रा और थोड़ा कृत्रिम मॉडल सेटअप लेकिन असली स्पेक्ट्रा) के लिए पाए गए हैं जो बार-बार क्रॉस सत्यापन को दोहराते हैं और बाहर करते हैं। -ऑफ़-बूटस्ट्रैप में समान समग्र अनिश्चितता थी, ओब में अधिक पूर्वाग्रह था लेकिन कम विचरण था - विश्वास के लिए, मैं इसे बहुत ही व्यावहारिक दृष्टिकोण से देख रहा हूं: दोहराया क्रॉस सत्यापन बनाम आउट-ऑफ-बूटस्ट्रैप लंबे समय तक कई कागजात से कोई फर्क नहीं पड़ता। सीमित परीक्षण नमूना आकार के कारण न तो रोगी-वार विभाजित करें और न ही रिपोर्ट / चर्चा / यादृच्छिक अनिश्चितता का उल्लेख करें।)

गलत होने के अलावा इसका साइड इफेक्ट यह भी है कि जो लोग उचित मान्यता रखते हैं, उन्हें अक्सर बचाव करना पड़ता है कि साहित्य में उन सभी परिणामों की तुलना में उनके परिणाम इतने खराब क्यों हैं।


1
यकीन नहीं होता अगर आप यह कहने के लिए थे, लेकिन "आशावाद" बूटस्ट्रैप एक मॉडल को मान्य करने का सबसे अच्छा तरीका है, और इसके प्रशिक्षण और परीक्षण के नमूने ओवरलैप होते हैं।
फ्रैंक हार्लेल

1
@ फ्रेंक हरेल - मुझे यकीन नहीं है कि मुझे आपकी बात मिल गई है। शायद कठिनाई यह है कि केमोमेट्रिक्स में "भविष्य कहनेवाला मॉडल का सत्यापन" हमेशा नए, अज्ञात, भविष्य के मामलों (उदाहरण में: नए रोगियों का निदान) के लिए प्रदर्शन के बारे में है। मैं हर समय आउट-ऑफ-बूटस्ट्रैप या दोहराया / पुनरावृत्त क्रॉस सत्यापन का उपयोग करता हूं। क्या आप समझा सकते हैं कि परीक्षण और ट्रेन सेट ओवरलैपिंग का क्या फायदा होता है, इसकी तुलना रोगी स्तर पर विभाजित करने से की जाती है (मेरा मानना ​​है कि "ओवरलैपिंग" का अर्थ है माप को विभाजित करना, इसलिए परीक्षण और प्रशिक्षण माप एक ही रोगी के हो सकते हैं, हमेशा एक अंतर-रोगी मॉडल के बारे में बात करते हैं। )?
cbeleites

... और हाँ, मॉडल सत्यापन के कुछ बिंदुओं को अलग-अलग परीक्षण और प्रशिक्षण मामलों में डेटा को विभाजित किए बिना उत्तर दिया जा सकता है (जैसे गुणांक के संदर्भ में मॉडल स्थिरता)। लेकिन पहले से ही स्थिरता स्थिरता मॉडल। अज्ञात रोगियों का उपयोग करके भविष्यवाणियों को मापा जाना चाहिए (अज्ञात: किसी भी डेटा-चालित पूर्व-प्रसंस्करण सहित मॉडल के निर्माण की प्रक्रिया में कभी भी प्रकट नहीं होता है जो सभी मामलों को ध्यान में रखता है)। असल में, केमोमेट्रिक्स में एक पारंपरिक परिमाण के लिए, सत्यापन में ऐसे कदम हैं जो स्वतंत्र रूप से मापा परीक्षण डेटा की आवश्यकता है: ...
15:12 पर cbeleites

साधन के अज्ञात ऑपरेटर के लिए अच्छा अभ्यास कॉल और सत्यापन के दौरान निर्धारित की जाने वाली विश्लेषणात्मक पद्धति की एक महत्वपूर्ण विशेषता यह है कि अंशांकन को कितनी बार फिर से करने की आवश्यकता होती है (या यह दर्शाता है कि वाद्य बहाव एक निश्चित समय में नगण्य है) - कुछ लेखक यहां तक ​​कि "पुन: नमूनाकरण के दुरुपयोग" के बारे में बात करते हैं जो इस तरह के स्वतंत्र परीक्षण सेटों की उपेक्षा करता है
15

1
यदि उपकरण या माप तकनीक को सत्यापन की आवश्यकता होती है, तो एक स्वतंत्र नमूना की आवश्यकता होती है। लेकिन एक सामान्य गलती एक स्वतंत्र सत्यापन को अनुकरण करने की कोशिश करने के लिए डेटा विभाजन का उपयोग करना है। यह अभी भी एक आंतरिक सत्यापन है। ऊपर @cbeleites प्रश्न का उत्तर देने के लिए, बूटस्ट्रैपिंग से जुड़े ओवरलैप किए गए नमूनों के परिणामस्वरूप भविष्य के मॉडल के प्रदर्शन के अधिक सटीक अनुमान होंगे, जिसमें अधिकांश डेटासेट में डेटा के बंटवारे की संभावना है। मेरे पास n = 17,000 और 0.30 ईवेंट दर के साथ खराब प्रदर्शन करने वाले डेटा बंटवारे हैं।
फ्रैंक हार्डेल

4

एक विलक्षण अर्थ में "डेटा" का उपयोग करना। डेटा है, वे कभी नहीं है।


2
संभवतः एक फ्रेंच सांख्यिकीविद्;)
स्टीफन लॉरेंट

9
मुझे स्वीकार करना चाहिए, मैंने हाल ही में डेटा के बहुवचन उपयोग को 10 साल या उससे अधिक समय तक चिपके रहने के बाद छोड़ दिया है। मैं आम तौर पर गैर-तकनीकी दर्शकों के लिए लिखता हूं और मुझे चिंता थी कि मैं धूमधाम से आ रहा हूं। एपीए अभी भी बहुवचन होने पर एक सख्त पढ़ने लगता है, लेकिन दिलचस्प बात यह है कि रॉयल स्टैटिस्टिकल सोसायटी को एक विशेष दृष्टिकोण नहीं लगता है। यहां एक दिलचस्प चर्चा है: guardian.co.uk/news/datablog/2010/jul/16/data-plural-singular
क्रिस बीले

1
मैं एक अंग्रेजी वक्ता नहीं हूं, लेकिन एकवचन में "डेटा" या "मीडिया" जैसे कार्यों के साथ समस्या यह है कि अंग्रेजी ने कई अन्य लैटिन शब्दों को उधार लिया है और आपको सभी लैटिन शब्दों का उपयोग सुसंगत तरीके से करने की आवश्यकता है। आगे क्या होगा? "क्यूरिकुला है" या "करिकुलम हैं"? "माध्यम हैं"? यदि "डेटा" लैटिन है, तो यह बहुवचन है। चर्चा का अंत। कोई फर्क नहीं पड़ता कि कितने लोग अब इसे अनदेखा करना चाहते हैं।
फ्रेंक

शायद मैं इसका दुरुपयोग कर रहा हूं, लेकिन मैं संदर्भ के आधार पर एकवचन और प्लूरर के बीच स्विच करता हूं।
स्टेट्सटूडेंट

'डेटम' शब्द का उपयोग कम और केवल विशेष परिस्थितियों में हो रहा है, मैं 'डेटा' शब्द को 'भेड़ियों' के संबंध में 'पैक' शब्द के बराबर होने के रूप में समझता हूं। कई भेड़ियों का वर्णन करने के लिए एकवचन में 'पैक' शब्द का उपयोग करना निश्चित रूप से स्वीकार्य है। शब्द 'डेटा' धीरे-धीरे अपनी सामूहिक संज्ञा में बदल रहा है ...
रॉबर्ट डी ग्रेफ

3

मेरे लिए अब तक, बिना किसी उचित कारण विश्लेषण के कारण या जब अनुचित कारण निष्कर्ष है, को जिम्मेदार ठहराया है।

मुझे यह भी नफरत है जब शून्य ध्यान दिया जाता है कि कैसे लापता डेटा को संभाला गया था। मैं बहुत सारे कागजात भी देखता हूं, जहां लेखक बस पूरा मामला विश्लेषण करते हैं और इस बात का कोई उल्लेख नहीं करते हैं कि परिणाम लापता मान के साथ आबादी के लिए सामान्य हो सकते हैं या कैसे लापता मूल्यों के साथ जनसंख्या पूरी तरह से डेटा के साथ जनसंख्या से व्यवस्थित रूप से भिन्न हो सकती है।


हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.