कोलमोगोरोव-स्मिरनोव परीक्षण: पी-मूल्य और केएस-टेस्ट स्टेटिस्टिक कमी नमूना आकार में वृद्धि के रूप में


12

नमूना आकार बढ़ने के साथ पी-मान और केएस-परीक्षण के आंकड़े क्यों घटते हैं? उदाहरण के रूप में इस पायथन कोड को लें:

import numpy as np
from scipy.stats import norm, ks_2samp
np.random.seed(0)
for n in [10, 100, 1000, 10000, 100000, 1000000]:
  x = norm(0, 4).rvs(n)
  y = norm(0, 4.1).rvs(n)
  print ks_2samp(x, y)

परिणाम हैं:

Ks_2sampResult(statistic=0.30000000000000004, pvalue=0.67507815371659508)
Ks_2sampResult(statistic=0.080000000000000071, pvalue=0.89375155241057247)
Ks_2sampResult(statistic=0.03499999999999992, pvalue=0.5654378910227662)
Ks_2sampResult(statistic=0.026599999999999957, pvalue=0.0016502962880920896)
Ks_2sampResult(statistic=0.0081200000000000161, pvalue=0.0027192461984023855)
Ks_2sampResult(statistic=0.0065240000000000853, pvalue=6.4573678008760032e-19)

सहज रूप से मैं समझता हूं कि जैसे-जैसे n बढ़ता है, परीक्षण "अधिक निश्चित" होता है दोनों वितरण अलग-अलग होते हैं। लेकिन अगर नमूना का आकार बहुत बड़ा है, तो इस तरह की समानता परीक्षणों में क्या बिंदु है और एंडरसन डार्लिंग परीक्षण, या टी-टेस्ट कहें, क्योंकि ऐसे मामलों में जब n बहुत बड़ा होता है, तो वितरण हमेशा पाया जाएगा "काफी अलग!? अब मैं सोच रहा हूं कि पृथ्वी पर पी-वैल्यूज का क्या मतलब है। यह नमूना आकार पर बहुत कुछ निर्भर करता है ... यदि p> 0.05 और आप इसे कम करना चाहते हैं, तो बस अधिक डेटा प्राप्त करें; और यदि p <0.05 और आप इसे अधिक होना चाहते हैं, तो बस कुछ डेटा हटा दें।

इसके अलावा, यदि दो वितरण समान थे, तो ks-test आँकड़ा 0 होगा और p- मान 1 होगा। लेकिन मेरे उदाहरण में, n ks-test आँकड़ों में वृद्धि से पता चलता है कि वितरण समय के साथ और अधिक समान हो जाता है (घटता है) , लेकिन पी-मूल्य के अनुसार वे समय के साथ और अधिक भिन्न हो जाते हैं (घट भी जाता है)।


देखें सामान्यता परीक्षण 'अनिवार्य रूप से बेकार' है? । ध्यान दें कि आप जो कहते हैं वह बिल्कुल सच नहीं है: यदि वितरण वास्तव में समान हैं तो पी-मूल्य का वितरण समान रहता है, भले ही आप नमूना आकार बढ़ाते हों।
Scortchi - को पुनः स्थापित मोनिका

2
मेरे पास एक समस्या है जो इससे संबंधित हो सकती है: आंकड़े.stackexchange.com/questions/301628/… इसने मुझे इस परीक्षण के बारे में वास्तव में संदेह किया।
अलेक्जेंडर जोवानोविक

यह सच है, पर्याप्त डेटा के साथ, आप दिखा सकते हैं कि मनमाने ढंग से छोटे, लेकिन गैर-शून्य, प्रभाव आकार सांख्यिकीय रूप से महत्वपूर्ण हैं। यहाँ कुंजी सांख्यिकीय महत्व और व्यावहारिक महत्व के बीच अंतर को पहचानती है। होमर सिम्पसन को गलत बताने के लिए, "आप कुछ भी साबित करने के लिए पी-वैल्यू का उपयोग कर सकते हैं जो दूर से भी सच है"।
न्यूक्लियर वैंग

जवाबों:


5

परीक्षण आँकड़ा कम हो जाता है क्योंकि आपके वितरण बहुत समान होते हैं और बड़े नमूनों में कम शोर होता है। यदि आप अपने द्वारा उपयोग किए जाने वाले दो सैद्धांतिक वितरणों की तुलना करते हैं, तो आपको "सही" केएस आँकड़ा मिलना चाहिए। जैसा कि आप अधिक डेटा जोड़ते हैं, आपके अनुमानित केएस आंकड़े को इस वास्तविक मूल्य से संपर्क करना चाहिए। हालांकि, यहां तक ​​कि जैसे ही आपके केएस आँकड़ा कम होता है, आपका आत्मविश्वास बढ़ता है कि वे वास्तव में दो अलग-अलग वितरण (यानी पी-मूल्य कम हो जाते हैं) हैं क्योंकि आपको व्यक्तिगत वितरण के अपने अनुमानों पर अधिक भरोसा है।


3

एक व्यावहारिक नोट पर: अधिक डेटा प्राप्त करना इतना आसान नहीं है (मैं इसे पसंद करता हूं)। सिर्फ पाने के लिए डेटा निकालनापी-आप चाहते हैं कि शैक्षणिक धोखाधड़ी हो, और यदि आप पकड़े जाते हैं तो आप मुसीबत में हैं।

फिर भी, आप सही हैं कि पी-अपने आप का मूल्य सीमित है। सबसे अच्छा यह सिर्फ आपके विश्लेषण की शुरुआत है और निश्चित रूप से अंत नहीं है। अधिक जानकारी के लिए एएसए द्वारा बयान देखेंपी-values


संदर्भ के लिए धन्यवाद, लेकिन मैं अभी भी अनिश्चित हूं कि केएस-टेस्ट स्टेटिस्टिक अधिक एन क्यों घटता है।
ओलिवर एंजेल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.