नमूना आकार बढ़ने के साथ पी-मान और केएस-परीक्षण के आंकड़े क्यों घटते हैं? उदाहरण के रूप में इस पायथन कोड को लें:
import numpy as np
from scipy.stats import norm, ks_2samp
np.random.seed(0)
for n in [10, 100, 1000, 10000, 100000, 1000000]:
x = norm(0, 4).rvs(n)
y = norm(0, 4.1).rvs(n)
print ks_2samp(x, y)
परिणाम हैं:
Ks_2sampResult(statistic=0.30000000000000004, pvalue=0.67507815371659508)
Ks_2sampResult(statistic=0.080000000000000071, pvalue=0.89375155241057247)
Ks_2sampResult(statistic=0.03499999999999992, pvalue=0.5654378910227662)
Ks_2sampResult(statistic=0.026599999999999957, pvalue=0.0016502962880920896)
Ks_2sampResult(statistic=0.0081200000000000161, pvalue=0.0027192461984023855)
Ks_2sampResult(statistic=0.0065240000000000853, pvalue=6.4573678008760032e-19)
सहज रूप से मैं समझता हूं कि जैसे-जैसे n बढ़ता है, परीक्षण "अधिक निश्चित" होता है दोनों वितरण अलग-अलग होते हैं। लेकिन अगर नमूना का आकार बहुत बड़ा है, तो इस तरह की समानता परीक्षणों में क्या बिंदु है और एंडरसन डार्लिंग परीक्षण, या टी-टेस्ट कहें, क्योंकि ऐसे मामलों में जब n बहुत बड़ा होता है, तो वितरण हमेशा पाया जाएगा "काफी अलग!? अब मैं सोच रहा हूं कि पृथ्वी पर पी-वैल्यूज का क्या मतलब है। यह नमूना आकार पर बहुत कुछ निर्भर करता है ... यदि p> 0.05 और आप इसे कम करना चाहते हैं, तो बस अधिक डेटा प्राप्त करें; और यदि p <0.05 और आप इसे अधिक होना चाहते हैं, तो बस कुछ डेटा हटा दें।
इसके अलावा, यदि दो वितरण समान थे, तो ks-test आँकड़ा 0 होगा और p- मान 1 होगा। लेकिन मेरे उदाहरण में, n ks-test आँकड़ों में वृद्धि से पता चलता है कि वितरण समय के साथ और अधिक समान हो जाता है (घटता है) , लेकिन पी-मूल्य के अनुसार वे समय के साथ और अधिक भिन्न हो जाते हैं (घट भी जाता है)।