आप आमतौर पर जो भी पैरामीटर आप अधिक डेटा के साथ परीक्षण कर रहे हैं, उसके बारे में अपने अनुमान में सुधार कर सकते हैं। एक बार एक परीक्षण प्राप्त करने के बाद डेटा संग्रह को रोकना, कुछ अर्ध-मनमानी डिग्री महत्व रखता है, जो बुरा अनुमान लगाने का एक अच्छा तरीका है। विश्लेषकों को एक महत्वपूर्ण परिणाम के बारे में गलतफहमी हो सकती है कि यह संकेत है कि नौकरी की गई है, नेमैन-पीयरसन ढांचे के कई अनपेक्षित परिणामों में से एक है, जिसके अनुसार लोग पी मूल्यों की व्याख्या करते हैं या तो अस्वीकार के कारण या आरक्षण के बिना शून्य को अस्वीकार करने में विफल होते हैं। वे किस महत्वपूर्ण दहलीज पर हैं।
लगातार प्रतिमान (उम्मीद है कि किसी और होगा) के लिए बायेसियन विकल्पों पर विचार किए बिना, आत्मविश्वास अंतराल उस बिंदु से परे अधिक जानकारीपूर्ण रूप से अच्छी तरह से जारी है, जिस पर एक मूल अशक्त परिकल्पना को खारिज किया जा सकता है। यह मानकर कि अधिक डेटा एकत्रित करना आपके मूल महत्व की परीक्षा को और भी अधिक महत्वपूर्ण बना देगा (और यह न बताएं कि आपके महत्व की पहले की खोज एक झूठी सकारात्मक थी), आपको यह बेकार लग सकता है क्योंकि आप किसी भी तरह से अस्वीकार कर देंगे। हालाँकि, इस परिदृश्य में, प्रश्न में पैरामीटर के आस-पास आपका आत्मविश्वास अंतराल सिकुड़ता रहेगा, आत्मविश्वास की डिग्री में सुधार होता है जिसके साथ आप अपनी ब्याज की आबादी का सटीक वर्णन कर सकते हैं।
यहाँ r - null परिकल्पना का परीक्षण करने में एक बहुत ही सरल उदाहरण दिया गया है कि एक नकली चर के लिए :μ = 0
One Sample t-test
data: rnorm(99)
t = -2.057, df = 98, p-value = 0.04234
alternative hypothesis: true mean is not equal to 0
95 percent confidence interval:
-0.377762241 -0.006780574
sample estimates:
mean of x
-0.1922714
t.test(rnorm(99))
α = .05rnorm
set.seed(8);t.test(rnorm(99,1))
μ = [ .69 , 1.12 ]
μ = 8mu=.8
set.seed(8);t.test(rnorm(999,1),mu=.8)
μ = 0μ = 8μ = [ .90 , 1.02 ]μ = .89
एच0: μ = 9set.seed(9);t.test(rnorm(999,1),mu=.9)
उत्तरोत्तर अधिक कड़े अशक्त परिकल्पनाओं का परीक्षण, या बेहतर अभी तक, बस अपने आत्मविश्वास के अंतराल को कम करने पर ध्यान केंद्रित करना आगे बढ़ने का सिर्फ एक तरीका है। बेशक, अधिकांश अध्ययन जो अशक्त परिकल्पनाओं को खारिज करते हैं, वैकल्पिक परिकल्पना पर बनने वाले अन्य अध्ययनों के लिए आधारशिला रखते हैं। उदाहरण के लिए, अगर मैं एक वैकल्पिक परिकल्पना का परीक्षण कर रहा था कि एक सहसंबंध शून्य से अधिक है, तो मैं अगले अनुवर्ती अध्ययन में मध्यस्थों या मध्यस्थों के लिए परीक्षण कर सकता हूं ... और जब मैं इस पर हूं, तो मैं निश्चित रूप से सुनिश्चित करना चाहता हूं। मैं मूल परिणाम को दोहरा सकता था।
विचार करने के लिए एक और दृष्टिकोण तुल्यता परीक्षण है। यदि आप यह निष्कर्ष निकालना चाहते हैं कि एक पैरामीटर संभव मानों की एक निश्चित सीमा के भीतर है, न कि केवल एक मूल्य से अलग है, तो आप मानों की उस सीमा को निर्दिष्ट कर सकते हैं जो आप चाहते हैं कि पैरामीटर आपके पारंपरिक वैकल्पिक परिकल्पना के अनुसार झूठ हो और उसका परीक्षण करे। अशक्त परिकल्पनाओं के एक अलग सेट के खिलाफ जो एक साथ इस संभावना का प्रतिनिधित्व करते हैं कि पैरामीटर उस सीमा के बाहर है। यह आखिरी संभावना आपके द्वारा लिखे जाने पर आपके मन में आई सबसे अधिक समान हो सकती है:
सच होने के विकल्प के लिए हमारे पास "कुछ सबूत" हैं, लेकिन हम उस निष्कर्ष को नहीं निकाल सकते। अगर मैं सच में निष्कर्ष निकालना चाहता हूं ...
set.seed(8)
rnorm(99)
rnorm(99,1)-1
μ = 8- .2 ≤ μ ≤ .2
require(equivalence);set.seed(8);tost(rnorm(99),epsilon=.2)
tost
μ = [ - .27 , .09 ]rnorm(999)
μ = [ - .09 , .01 ]
मुझे अभी भी लगता है कि समतुल्यता परीक्षा परिणाम की तुलना में आत्मविश्वास अंतराल अधिक दिलचस्प है। यह दर्शाता है कि डेटा का सुझाव आबादी का मतलब विशेष रूप से वैकल्पिक परिकल्पना की तुलना में अधिक है, और मुझे लगता है कि मैं वैकल्पिक परिकल्पना में निर्दिष्ट की तुलना में एक भी छोटे अंतराल के भीतर निहित है कि यह काफी विश्वास हो सकता है। प्रदर्शित करने के लिए, मैं एक बार फिर सिमुलेशन की मेरी अवास्तविक शक्तियों का दुरुपयोग करूंगा और "प्रतिकृति" का उपयोग करके set.seed(7);tost(rnorm(999),epsilon=.09345092)
: निश्चित रूप से पर्याप्त, पी = .002।