समतुल्यता वह चीज नहीं है जिसे हम परख सकते हैं । परिकल्पना के बारे में सोचो:एच0:चएक्स≠चy बनाम एच1:चएक्स=चy। NHST सिद्धांत हमें बताता है कि, अशक्त के तहत, हम चुन सकते हैं कुछ भी नीचेएच0यह सबसे अच्छा डेटा फिट बैठता है। इसका मतलब है कि हम लगभग हमेशा मनमाने ढंग से वितरण के करीब पहुंच सकते हैं। उदाहरण के लिए, यदि मैं परीक्षण करना चाहता हूंचएक्स∼ एन( 0 , 1 )संभावना मॉडल है कि अलग वितरण के लिए अनुमति देता है च^एक्स तथा च^yहमेशा अशक्त होने की संभावना अधिक होगी, महत्वपूर्ण परीक्षण मान्यताओं का उल्लंघन। भले ही नमूनाएक्स= य समान रूप से, मैं एक संभावना अनुपात प्राप्त कर सकता हूं जो मनमाने ढंग से 1 के करीब है चy≈चएक्स।
यदि आप डेटा के लिए उपयुक्त संभावना मॉडल जानते हैं, तो आप वैकल्पिक मॉडल को रैंक करने के लिए एक दंडित सूचना मानदंड का उपयोग कर सकते हैं । एक तरीका यह है कि दो प्रायिकता मॉडल के बीआईसी का उपयोग किया जाए (एक अनुमान के तहतएच0 तथा एच1। मैंने एक सामान्य संभाव्यता मॉडल का उपयोग किया है, लेकिन आप किसी भी प्रकार की अधिकतम संभावना प्रक्रिया से बीआईसी प्राप्त कर सकते हैं, या तो हाथ से या जीएलएम का उपयोग कर सकते हैं। यह स्टैकओवरफ़्लो पोस्ट फिटिंग वितरण के लिए नॉटी-ग्रिट्टी में मिलती है। ऐसा करने का एक उदाहरण यहाँ है:
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
देता है
> mean(p)
[1] 0.034
पीयहाँ कई बार का अनुपात है कि वैकल्पिक मॉडल (समकक्ष मॉडल) की तुलना में नल मॉडल (अलग मॉडल) का बीआईसी बेहतर (कम) है। यह उल्लेखनीय रूप से सांख्यिकीय परीक्षणों के नाममात्र 0.05 के स्तर के करीब है।
दूसरी ओर अगर हम लेते हैं:
set.seed(123)
p <- replicate(1000, { ## generate data under the null
x <- rnorm(100)
g <- sample(0:1, 100, replace=T)
x <- x + 0.4*g
BIC(lm(x~1)) > BIC(lm(x~g))
})
mean(p)
देता है:
> mean(p)
[1] 0.437
एनएचएसटी के साथ शक्ति और झूठे सकारात्मक त्रुटि दर के सूक्ष्म मुद्दे हैं जिन्हें निश्चित निष्कर्ष बनाने से पहले सिमुलेशन के साथ पता लगाया जाना चाहिए।
मुझे लगता है कि एक समान (शायद अधिक सामान्य विधि) या तो संभावना मॉडल के तहत अनुमानित पश्च की तुलना करने के लिए बायेसियन सांख्यिकी का उपयोग कर रहा है।