एक उदाहरण जहां संभावना सिद्धांत * वास्तव में * मायने रखता है?


20

क्या एक उदाहरण है जहां आनुपातिक संभावना के साथ दो अलग-अलग रक्षात्मक परीक्षण एक को स्पष्ट रूप से अलग (और समान रूप से रक्षात्मक) इनवॉइस तक ले जाएंगे , उदाहरण के लिए, जहां पी-मान दूर-दूर तक परिमाण का क्रम है, लेकिन विकल्प के लिए शक्ति समान है?

मेरे द्वारा देखे जाने वाले सभी उदाहरण बहुत ही मूर्खतापूर्ण हैं, एक द्विपद की तुलना एक नकारात्मक द्विपद से करते हैं, जहां पहले का पी-मूल्य 7% और दूसरे का 3% है, जो "अलग-अलग" हैं केवल एक अनौपचारिक व्यक्ति मनमाने ढंग से थ्रेसहोल्ड पर द्विआधारी निर्णय ले रहा है। 5% (जो, वैसे, अनुमान के लिए एक बहुत कम मानक है) और शक्ति को देखने की जहमत भी नहीं उठाता। उदाहरण के लिए, यदि मैं 1% की सीमा को बदलता हूं, तो दोनों एक ही निष्कर्ष पर पहुंचते हैं।

मैंने कभी ऐसा उदाहरण नहीं देखा है जहाँ यह स्पष्ट रूप से भिन्न और रक्षात्मक संदर्भों को जन्म देगा । क्या ऐसा कोई उदाहरण है?

मैं पूछ रहा हूं क्योंकि मैंने इस विषय पर इतनी स्याही खर्च की है, जैसे कि अनुमान का सिद्धांत सांख्यिकीय निष्कर्ष की नींव में कुछ मौलिक है। लेकिन अगर सबसे अच्छा उदाहरण किसी के ऊपर की तरह मूर्खतापूर्ण उदाहरण हैं, तो सिद्धांत पूरी तरह से असंगत लगता है।

इस प्रकार, मैं एक बहुत ही सम्मोहक उदाहरण की तलाश कर रहा हूं, जहां अगर कोई एलपी का पालन नहीं करता है तो साक्ष्य का वजन एक परीक्षण को दिए गए एक दिशा में भारी संकेत होगा, लेकिन, आनुपातिक संभावना के साथ एक अलग परीक्षण में, साक्ष्य का वजन होगा एक विपरीत दिशा में भारी इशारा करते हैं, और दोनों निष्कर्ष समझदार लगते हैं।

आदर्श रूप से, कोई भी प्रदर्शित कर सकता है हम मनमाने ढंग से अलग हो सकते हैं, फिर भी समझदार, उत्तर, जैसे कि पी=0.1 बनाम पी=10-10 साथ परीक्षण आनुपातिक संभावना और समान शक्ति के साथ समान विकल्प का पता लगाने के लिए।

पुनश्च: ब्रूस का जवाब सवाल को बिल्कुल भी संबोधित नहीं करता है।


5
महत्व परीक्षण का प्रदर्शन करते समय, कोई हमेशा सीमा को बदलकर निर्णय बदल सकता है। इसलिए आप समझा सकते हैं कि "स्पष्ट रूप से," "मूर्खतापूर्ण," या "सम्मोहक" से आपका क्या मतलब है? BTW, आप विकिपीडिया लेख पढ़ रहे हैं ।
whuber

2
CV, @statslearner में आपका स्वागत है। क्या आप अनुमान के लिए एक या अधिक विशिष्ट दृष्टिकोण का उदाहरण दे सकते हैं जो संभावना सिद्धांत का उपयोग नहीं करते हैं जिसे आप इसके विपरीत देखना चाहते हैं?
एलेक्सिस

1
@ जब भी आदर्श रूप से मैं यह देखना चाहूंगा कि आप मनमाने ढंग से अलग-अलग उत्तरों का निर्माण कर सकते हैं, जैसे कि यदि आप पी-मान, बनाम पी = 10 - 5 , और कुछ गणनाओं का उपयोग करना चाहते हैं, तो भी दोनों गणनाएँ अभी भी रक्षात्मक प्रतीत होंगी। p=0.5p=105
आँकड़े

3
मैं उस टिप्पणी का पालन नहीं कर सकता क्योंकि कोई मतलब नहीं है। बावजूद, क्या आपने विकिपीडिया उदाहरण में दिए गए नंबरों को बदलने पर विचार किया है? p=105
whuber

6
व्यावहारिक निहितार्थ के साथ महत्वपूर्ण अंतर नियमों को रोकने का प्रसंस्करण है: एलपी के तहत वे कोई फर्क नहीं पड़ता, एलपी के बाहर वे करते हैं। विवरणों के लिए बर्गर एंड वोल्पर (1987) की जाँच करें।
शीआन

जवाबों:


7

एक काल्पनिक स्थिति के बारे में सोचें जब एक बिंदु शून्य परिकल्पना सच होती है, लेकिन व्यक्ति पी<0.05 तक नमूना रखता है (यह हमेशा जल्दी या बाद में होगा, अर्थात यह संभावना 1 के साथ होगा) और फिर परीक्षण को रोकने और नल को अस्वीकार करने का फैसला करता है। यह एक भर्ती चरम नियम है, लेकिन इसे तर्क के लिए विचार करें।

इस नैतिक प्रक्रिया में 100% टाइप I त्रुटि दर होगी, लेकिन लिक्लीहुड सिद्धांत के अनुसार इसमें कुछ भी गलत नहीं है।

मैं कहूंगा कि यह "वास्तव में" मायने रखता है। आप निश्चित रूप से इस तर्क में कोई α चुन सकते हैं । यदि वे चाहें तो बेयर्स बायस कारक पर एक निश्चित कट-ऑफ का उपयोग कर सकते हैं। एक ही तर्क लागू होता है। यहां मुख्य सबक यह है कि आप एलपी का पालन नहीं कर सकते हैं और त्रुटि दर की गारंटी दे सकते हैं। दुनिया में कोई भी चीज मुफ्त में नहीं मिलती।


4
मैं इस उदाहरण के बारे में भी सोच रहा था। लेकिन मैंने इसका उल्लेख नहीं किया क्योंकि यह वास्तव में नैतिक है। लेकिन वास्तव में, यह वही होता है जो व्यवहार में अप्रत्यक्ष और अनौपचारिक रूप से होता है।
सेक्स्टस एम्पिरिकस

1
आपके उदाहरण में 2 आँकड़े और उनकी संभावना क्या है? नेग में। द्विपद बनाम द्विपद मामले हमारे पास हैं: 1) आँकड़े 1, 3 सिर तक परीक्षणों की संख्या, संभावना नकारात्मक द्विपद; 2) आँकड़े 2, n परीक्षणों में प्रमुखों की संख्या, समानता की तरह द्विपद। आपके उदाहरण में, मैं यह नहीं देखता कि दो आँकड़े क्या हैं और यदि उनमें आनुपातिक संभावनाएँ हैं।
आँकड़े

1
आपके उदाहरण में शायद यह "<0.05" तक परीक्षणों की संख्या होगी जो मुझे शायद ही संदेह है कि यह द्विपद के समानुपाती है, इसलिए मुझे यकीन नहीं है कि आपका उदाहरण वैध है, अमीबा।
19:01 पर आँकड़े

1
मुझे नहीं लगता कि संभावना सिद्धांत कहता है कि "इसमें कुछ भी गलत नहीं है।" संभावना सिद्धांत खराब प्रक्रियाओं को फ़िल्टर करता है। तथ्य यह है कि प्रक्रिया संभावना सिद्धांत का पालन नहीं करती है, यह संभावना नहीं है क्योंकि यह संभावना सिद्धांत द्वारा समर्थन किया जा रहा है । इस अनुक्रमिक परीक्षण समस्या का बायेसियन विश्लेषण, जो निश्चित रूप से संभावना सिद्धांत का पालन करता है, में पूरी तरह से ठीक गुण हैं, क्योंकि यह आपके द्वारा वर्णित "नैतिक" प्रक्रिया को लागू नहीं करेगा।
लड़का

3
@amoeba पर विचार विकल्प या के तहत θ = 0 अशक्त के तहत, साथ Y मैं ~ एन ( θ , 1 ) । यह दिखाना आसान है कि बेयस कारक का लॉग लगभग 1 हैθ~एन(0,τ-1)θ=0Yमैं~एन(θ,1)जहांजेडएनसामान्य हैजेडपरीक्षण आंकड़ा। को अस्वीकार करते हुए जब Bayes कारक से बड़ा है1फिर जब खारिज के बराबर है| जेडएन| >(√)12[लॉग(τ/n)+जेडn2]जेडnजेड1। अशक्त के तहत, यह अनुक्रमिक परीक्षण सेटिंग में होने की गारंटी नहीं है (cf iterated logarithm का नियम); इसलिए, Bayesian प्रक्रिया आपके द्वारा बताई गई समस्या का शिकार नहीं होगी। |जेडn|>हे(लॉगn)
लड़का

4

अस्वीकरण: मेरा मानना ​​है कि यह उत्तर पूरे तर्क के मूल में है, इसलिए यह चर्चा के लायक है, लेकिन मैंने पूरी तरह से इस मुद्दे का पता नहीं लगाया है। जैसे, मैं सुधार, शोधन और टिप्पणियों का स्वागत करता हूं।

क्रमिक रूप से एकत्र किए गए डेटा के संबंध में सबसे महत्वपूर्ण पहलू है। उदाहरण के लिए, मान लीजिए कि आपने बाइनरी परिणामों का अवलोकन किया, और आपने 10 सफलता और 5 विफलताएं देखीं। संभावना सिद्धांत कहता है कि आपको सफलता की संभावना के बारे में एक ही निष्कर्ष पर आना चाहिए, चाहे आप 10 सफलताओं (नकारात्मक द्विपद) तक डेटा एकत्र किए थे या 15 परीक्षण किए थे, जिनमें से 10 सफलताएं (द्विपद) थीं

इसका कोई महत्व क्यों है?

क्योंकि संभावना सिद्धांत के अनुसार (या कम से कम, इसकी एक निश्चित व्याख्या), यह डेटा प्रभाव को पूरी तरह से ठीक करने के लिए ठीक है जब आप डेटा एकत्र करना बंद करने जा रहे हैं, बिना अपने इंजेक्शन उपकरण को बदलने के लिए।

अनुक्रमिक विधियों के साथ संघर्ष

यह विचार कि आपके डेटा का उपयोग करके यह निर्णय लेना कि कब अपने हीन उपकरण में बदलाव किए बिना डेटा एकत्र करना बंद करना है, पारंपरिक अनुक्रमिक विश्लेषण विधियों के सामने पूरी तरह से उड़ जाता है। इसका क्लासिक उदाहरण नैदानिक ​​परीक्षणों में उपयोग किए जाने वाले तरीकों के साथ है। हानिकारक उपचार के संभावित जोखिम को कम करने के लिए, विश्लेषण किए जाने से पहले डेटा का अक्सर मध्यवर्ती समय पर विश्लेषण किया जाता है। यदि परीक्षण अभी तक समाप्त नहीं हुआ है, लेकिन शोधकर्ताओं के पास पहले से ही यह निष्कर्ष निकालने के लिए पर्याप्त डेटा है कि उपचार काम करता है या हानिकारक है, तो चिकित्सा नैतिकता हमें बताती है कि हमें परीक्षण रोक देना चाहिए; यदि उपचार काम करता है, तो परीक्षण रोकना और गैर-परीक्षण रोगियों को उपचार उपलब्ध कराना नैतिक है। यदि यह हानिकारक है, तो रोकना अधिक नैतिक है ताकि हम एक हानिकारक उपचार के लिए परीक्षण रोगियों को उजागर करना बंद कर दें।

समस्या यह है कि अब हमने कई तुलना करना शुरू कर दिया है, इसलिए हमने अपनी टाइप I त्रुटि दर को बढ़ा दिया है यदि हम कई तुलनाओं के लिए अपने तरीकों को समायोजित नहीं करते हैं। यह पारंपरिक कई तुलना समस्याओं के समान नहीं है, क्योंकि यह वास्तव में कई आंशिक तुलनाएं हैं (यानी, यदि हम डेटा का एक बार एकत्र किए गए डेटा का 50% और 100% के साथ एक बार विश्लेषण करते हैं, तो ये दो नमूने स्पष्ट रूप से स्वतंत्र नहीं हैं!) , लेकिन सामान्य तौर पर हम जितनी अधिक तुलनाएँ करते हैं, उतनी ही अधिक हमें तुलना करने की आवश्यकता होती है, उतने ही त्रुटि दर को बनाए रखने के लिए अशक्त परिकल्पना को अस्वीकार करने के लिए, अधिक तुलना के साथ और अधिक सबूतों की आवश्यकता होती है, क्योंकि इससे अधिक प्रमाण की आवश्यकता होती है।

यह नैदानिक ​​शोधकर्ताओं को दुविधा में डालता है; क्या आप बार-बार अपने डेटा की जाँच करना चाहते हैं, लेकिन फिर अशक्तता को अस्वीकार करने के लिए अपने आवश्यक साक्ष्य को बढ़ाएँ, या क्या आप अपने डेटा को बार-बार जाँचना चाहते हैं, अपनी शक्ति को बढ़ाना चाहते हैं, लेकिन संभवतः चिकित्सा नैतिकता के संबंध में एक इष्टतम तरीके से कार्य नहीं कर सकते (जैसे, हो सकता है) उत्पाद को बाजार में लाने या रोगियों को अनावश्यक रूप से हानिकारक उपचार के लिए लंबे समय तक बेनकाब करना)।

यह मेरी (शायद गलत) समझ है कि संभावना सिद्धांत हमें यह बताने के लिए प्रकट होता है कि इससे कोई फर्क नहीं पड़ता कि हम कितनी बार डेटा की जांच करते हैं, हमें एक ही निष्कर्ष बनाना चाहिए। यह मूल रूप से कहता है कि अनुक्रमिक परीक्षण डिजाइन के सभी दृष्टिकोण पूरी तरह से अनावश्यक हैं; बस संभावना सिद्धांत का उपयोग करें और निष्कर्ष निकालने के लिए पर्याप्त डेटा एकत्र करने के बाद रुकें। चूँकि आपके द्वारा तैयार किए गए विश्लेषणों की संख्या को समायोजित करने के लिए आपको अपने अनुमान तरीकों में बदलाव करने की आवश्यकता नहीं है, इसलिए कई बार जाँच की गई और शक्ति के बीच कोई दुविधा नहीं है। बाम, अनुक्रमिक विश्लेषण के पूरे क्षेत्र को हल किया गया है (इस व्याख्या के अनुसार)।

व्यक्तिगत रूप से, जो मेरे बारे में बहुत भ्रमित है, वह यह है कि एक तथ्य जो क्रमिक डिजाइन क्षेत्र में अच्छी तरह से जानता है, लेकिन काफी सूक्ष्म है, यह है कि अंतिम परीक्षण सांख्यिकीय की संभावना काफी हद तक रोक नियम द्वारा बदल दी जाती है; मूल रूप से, रुकने के नियम रुकने वाले बिंदुओं पर एक असंतोषजनक तरीके से संभावना बढ़ाते हैं। यहाँ इस तरह की विकृति का एक भूखंड है; धराशायी लाइन नल के तहत अंतिम परीक्षण सांख्यिकीय का पीडीएफ है यदि डेटा का विश्लेषण केवल सभी डेटा एकत्र करने के बाद किया जाता है, जबकि ठोस रेखा आपको परीक्षण सांख्यिकीय के शून्य के तहत वितरण देती है यदि आप किसी दिए गए डेटा की 4 बार जांच करते हैं राज करते हैं।

इसके साथ ही, यह मेरी समझ है कि संभावना सिद्धांत का अर्थ यह प्रतीत होता है कि हम फ़्रीक्वेंटिस्ट अनुक्रमिक डिज़ाइन के बारे में सभी जानते हैं और यह भूल सकते हैं कि हम अपने डेटा का कितनी बार विश्लेषण करते हैं। जाहिर है, इस के निहितार्थ, विशेष रूप से नैदानिक ​​डिजाइन के क्षेत्र के लिए, बहुत बड़ा है। हालाँकि, मैंने अपने दिमाग को इधर-उधर नहीं लपेटा है कि वे इस बात को नज़रअंदाज़ करना कैसे उचित ठहराते हैं कि नियमों को अंतिम रूप देने की संभावना को कैसे बदल दिया जाए।

कुछ हल्की चर्चा यहां पाई जा सकती है , ज्यादातर अंतिम स्लाइड्स पर।


2
+1। मुझे काल्पनिक रूप से एक काल्पनिक स्थिति के बारे में सोचना आसान लगता है जब अशक्त परिकल्पना सच होती है, लेकिन कोई तक नमूना रखता है (यह दीवार हमेशा जल्दी या बाद में होती है, अर्थात यह संभावना 1 के साथ होगी) और फिर परीक्षण को रोकने का फैसला किया। इस नैतिक प्रक्रिया में 100% टाइप I त्रुटि दर होगी, भले ही यह एलपी का अनुपालन करता हो। p<0.05
अमीबा का कहना है कि मोनिका

@amoeba: मैं मानता हूं कि आपका उदाहरण बहुत सीधा है (+1)। मेरे जवाब का लक्ष्य इस बात पर जोर देना है कि चर्चा क्यों हो रही है। मुझे लगता है कि उत्तर यह है कि अगर एलपी के निहितार्थ और व्याख्याएं सही थीं, तो इसका मतलब होगा कि नैदानिक ​​परीक्षणों को अब अधिकतम शक्ति और अनावश्यक जोखिम के बीच नहीं चुनना होगा, जो कि एक बहुत बड़ा लाभ होगा। सामान्य तौर पर यह शोधकर्ताओं को पहले से उचित नमूना आकार का अनुमान लगाने की आवश्यकता से भी मुक्त करेगा, जो सांख्यिकीय परीक्षणों की उपयोगिता में काफी सुधार करता है।
एबी एबी

खैर, मुझे लगता है कि लगातार परीक्षण की पूरी रूपरेखा एलपी के साथ असंगत है, और बस यह कैसे है। यदि कोई त्रुटि दरों पर गारंटी चाहता है, तो वह लगातार परीक्षण का उपयोग करता है। पता चला कि यह एलपी के साथ असंगत है। लिंडले का विरोधाभास और वह सब भी देखें। खैर, कठिन है। मैं इन मामलों को लेकर उत्साहित रहता था, लेकिन अब मैं नहीं रहा। दुनिया में कोई भी चीज मुफ्त में नहीं मिलती; किसी को कुछ विकल्प बनाने होंगे। ध्यान दें कि बहुत सी बायेसियन प्रक्रियाएं एलपी का भी उल्लंघन करती हैं
अमीबा का कहना है कि मोनिका

"अंतिम परीक्षण सांख्यिकीय की संभावना को मोटे तौर पर रोक नियम द्वारा बदल दिया जाता है" पीडीएफ बदल दिया जाता है, और यह भी संभावना (लेकिन केवल एक स्थिर), लेकिन आप अभी भी एक संभावना कार्यों के साथ समाप्त हो सकते हैं जो उसी तक हैं आनुपातिकता की निरंतरता। उदाहरण के लिए द्विपद बंटन और के लिए नकारात्मक द्विपद बंटन सफलताओं और एन परीक्षणों दोनों एक संभावना है एल ( पी | n , कश्मीर ) है कि के लिए आनुपातिक है α पी कश्मीर पी एन - कश्मीरknL(p|n,k)pkpn
सेक्सटस एमपिरिकस

3

घातीय डेटा के लिए LR परीक्षणों की रूपरेखा।

चलो X1,X2,,Xn हो से नमूने के तौर पर Exp(rate=λ), ताकि E(Xi)=μ=1/λ. के लिए x>0, घनत्व समारोह है f(x)=λeλx और CDF है F(x)=1eλx.

1. परीक्षण सांख्यिकीय नमूना न्यूनतम है।

आज्ञा देना V=X(1)=minn(Xi).फिर VExp(nλ).प्रमाण की रूपरेखा के रूप में,

P(V>v)=P(X1>v,,Xn>v)=[eλv]n=enλv,
ताकिP(Vv)=1enλv,के लिएv>0.

परीक्षण करने के लिए H9:μμ0 के खिलाफ Ha:μ>μ0, स्तर पर α=5%, हम मानते हैं V अपनी घातीय वितरण से एक भी अवलोकन के रूप में। हम पाते हैं कि लॉग संभावना अनुपात , V>c, जहां पी ( वी > सी) के अस्वीकृति को इंगित करता हैP(V>c|μ=μ0)=0.05.

विशिष्ट मामले के लिए जिसमें n=100 और μ0=10,λ0=0.1, हम घातीय दर है10=n/μ0=100/10=10, ताकिc=0.2295 आर, जहां घातीय वितरण दर से parameterized है से।

 qexp(.95, 10)
 [1] 0.2995732
 1 - pexp(0.2996, 10)
 [1] 0.04998662

तदनुसार, वैकल्पिक μa=100 (दर n/μa=1) विरुद्ध शक्ति लगभग 74% है।

1 - pexp(0.2996, 1)
[1] 0.7411146

2. टेस्ट स्टेटिस्टिक नमूना माध्य है।

ऑक्सफोर्ड यू वर्ग नोट्स (दूसरे पृष्ठ) बताते हैं कि की संभावना अनुपात परीक्षण H0:μμ0 के खिलाफ H0:μ>μ0 महत्व को खारिज कर दिया के 5% के स्तर पर के लिए X¯>c, जहां P(X¯>c|μ=μ0)=0.5. इसके अलावा, एक पल पैदा कार्यों का उपयोग कर दिखा सकते हैं X¯Gamma(n,nλ).

विशिष्ट मामले के लिए जिसमें n=100 और μ0=10,λ0=0.1, हमारे पासX¯Gamma(100,10), ताकिc=11.7.

qgamma(.95, 100, 10)
[1] 11.69971
1 - pgamma(11.7, 100, 10)
[1] 0.04997338

तदनुसार, वैकल्पिक μa=14 खिलाफ शक्ति लगभग 95.6% है।

1 - pgamma(11.7, 100, 100/14)
[1] 0.9562513

स्पष्ट रूप से, घातीय माध्य μ, बारे में परिकल्पनाओं के परीक्षण के प्रयोजनों के लिए , पर्याप्त आंकड़े एक्स¯ में जानकारी नमूना न्यूनतम में जानकारी की तुलना में बहुत अधिक है।


मुझे नहीं लगता कि यह सवाल बिल्कुल सही है। क्या दो संभावनाएं आनुपातिक हैं? आपको पहले यह दिखाने की आवश्यकता है कि दो प्रयोगों की संभावना आनुपातिक है, अन्यथा संभावना सिद्धांत लागू नहीं होता है। दूसरे, इस उदाहरण में दो परीक्षण एक ही निष्कर्ष पर ले जाते हैं, इसलिए यह द्विपद बनाम नकारात्मक द्विपद के उदाहरण की तुलना में कहीं अधिक कमज़ोर है।
स्टैटस्लेरेर 2

मैं तो बस दस्तावेज़ की जाँच की, likelihoods हैं नहीं के बाद से पहली संभावना है, आनुपातिक प्रतिपादक में और अन्य है Σ x मैं , इस प्रकार संभावना सिद्धांत यहां दो टेस्ट अनुसार अलग निष्कर्ष करने के लिए नेतृत्व करने के लिए लागू नहीं करना चाहिए, यह ठीक संभावना सिद्धांत। vxमैं
9

2
ब्रूस, केवल स्पष्ट करने के लिए कि सिद्धांत सिद्धांत क्या कहता है: यह कहता है कि यदि आपके पास दो प्रयोग हैं जहां संभावना केवल एक निरंतरता से भिन्न होती है, तो आपको उनसे एक ही निष्कर्ष निकालना चाहिए। यह द्विपद बनाम नकारात्मक द्विपद मामले में होता है, जहां वे केवल द्विपद गुणांक भाग (स्थिर) में भिन्न होते हैं। आपका उदाहरण दो परीक्षणों को दिखाता है जहां उनकी संभावना केवल एक निरंतरता से भिन्न नहीं होती है, इसलिए एलपी लागू नहीं होता है।
9

@ एक एक्सट्रैक्शन एक नमूना अवलोकन के लिए संभावना फ़ंक्शन , एक्स n : है ( एक्स 1 , , एक्स एन ) = n Π मैं = 1 λ - λ एक्स मैं यह एक ही है कि क्या आप कम से कम या मतलब चयन एक मापदंड के रूप में परीक्षण करने के लिए है। यहां होने वाले उल्लंघन को उस प्रकार के रूप में देखा जा सकता है जिसमें 'चरम मामलों' की परिभाषा अलग है और पी-मूल्य की गणना करने के लिए एकीकरण अलग-अलग तरीके से किया जाता है।x1,...,xn
(एक्स1,,एक्सn)=Πमैं=1nλ-λएक्समैं
सेक्सटस एम्पिरिकस

3

विभिन्न पीडीएफ कार्यों द्वारा उल्लंघन (एक्स,θ) और जी(एक्स,θ)

इस मामले में 'उल्लंघन' क्योंकि संभावना वितरण कार्यों का एक उदाहरण हो जाएगा (एक्स,θ) जी(एक्स,θ) कर रहे हैं आंतरिक रूप से अलग। यहां तक कि जब और जी , भिन्न होते हैं, वे क्योंकि पर संभावना सिद्धांत से संबंधित हो सकती तय माप एक्स वे का ही कार्य देने θ ऊपर स्केलिंग के लिए। अंतर, "उल्लंघन" के लिए एक संभावना को खोलता है।


सिक्का वैकल्पिक रोक नियम के साथ या बिना फ्लिप

साथ या वैकल्पिक रोक नियम के बिना सिक्का फ्लिप एक विशिष्ट उदाहरण है, पीडीएफ द्विपद या नकारात्मक द्विपद जो विभिन्न पीडीएफ कार्यों और पी-मूल्यों की अलग गणना करने के लिए सीसा, और विश्वास के अंतराल कर रहे हैं, लेकिन वे तय के लिए एक ही संभावना कार्यों के लिए नेतृत्व नमूना / माप (स्केलिंग तक)।

नकारात्मक द्विपद(n|,पी)=(n-1-1)पी(1-पी)n-द्विपद(|n,पी)=(n)पी(1-पी)n-


अधिक चरम उदाहरण

एक्स

एल(θ|एक्स)=(एक्स|θ)={0 अगर एक्स<0 अगर 0एक्स<1(1-)θexp(-θ(एक्स-1)) अगर एक्स1

θएक्स

एक्स

  • एक्स<1एल(θ|एक्स)α1
  • एक्स1एल(θ|एक्स)αθexp(-θ(एक्स-1))

एक्स=2एच0:θ=1एच0:θ<1

पी(एक्स>2|θ=1)=(1-)exp(1)


एक्स

(θ|एक्स)एक्स(एक्स|θ)θ

पी-वैल्यू वास्तव में साक्ष्य नहीं हैं: पी-वैल्यू टाइप I त्रुटि से संबंधित है जो एक माप है जो एकल माप के बजाय माप के एक समूह से संबंधित है। इस प्रकार मैं त्रुटि या पी-मूल्य बिरनबाम की 'सांख्यिकीय प्रमाण की नींव' से 'स्पष्ट अर्थ' के समान नहीं है। यह पी-मान और वैज्ञानिक के साथ समस्याओं से बहुत कुछ संबंधित है, केवल महत्वपूर्ण प्रभावों के बजाय सांख्यिकीय महत्व के साथ परिणामों की खोज कर रहा है।

क्या हमें ऐसे उदाहरणों की आवश्यकता है जहाँ इनफ्रेक्शंस स्पष्ट रूप से भिन्न हों? चरम मामला एक आकस्मिक उदाहरण है। ऐसा मामला, या समान चरम अंतर के साथ कुछ भी, बेशक अभ्यास में आसानी से नहीं होता है। यह अधिक बार ऐसा होता है कि अंतर छोटा होगा जैसे कि उन मामलों में जिन्हें आप मूर्खतापूर्ण बताते हैं।

ऐसे उदाहरणों के लिए पूछना जहां संभावना सिद्धांत 'वास्तव में मायने रखता है', या जहां दो अलग-अलग निष्कर्षों से बहुत अलग परिणाम प्राप्त होते हैं, एक भारित प्रश्न का एक सा है । कम से कम जब इस सवाल का इरादा कुछ दार्शनिक तर्क से संबंधित है। यह एक लोडेड प्रश्न है क्योंकि यह उन सिद्धांतों को निर्धारित करता है जो मायने रखते हैं जिससे परिणाम बहुत भिन्न हो सकते हैं। कई व्यावहारिक मामलों में परिणाम हालांकि छोटे होते हैं (एक आदेश से कम विभिन्न पी-मानों के संदर्भ में)। मेरा मानना ​​है कि यह दो अलग-अलग के लिए अजीब नहीं है, लेकिन दोनों प्रशंसनीय हैं, कम या ज्यादा समान परिणाम प्राप्त करने के तरीके। मैं इस बात पर विचार करूँगा कि अंतर सिद्धांत केवल 'कम उल्लंघन' न हो जब मतभेद केवल छोटे हों।


केस 1 के बारे में: मुझे लगता है कि एक अलग टेस्ट स्टेटिस्टिक कैन (चाहिए?) को संभावना फ़ंक्शन को बदलने के रूप में देखा जा सकता है।
अमीबा का कहना है कि मोनिका

2
@MartijnWeterings हाँ यह एक अलग परीक्षण आँकड़ों को चुन रहा है, क्या मायने रखता है आँकड़ों की संभावना है, आँकड़ों की नहीं। अन्यथा मैं 100 फ़्लिप का अनुक्रम ले सकता हूं और कई सांख्यिकी विशेषताओं की गणना कर सकता हूं: सिर के रन की संख्या, सिर और पूंछ के विकल्पों की संख्या। इसमें से कोई भी एलपी का उल्लंघन नहीं करता है।
आँकड़े १५

आपको दो आँकड़ों को चुनना होगा जिसमें आनुपातिक संभावनाएँ होंगी, जैसे 3 सफलता तक परीक्षणों की संख्या या n परीक्षणों में सफलताओं की संख्या आदि
आँकड़े 25

1

यहां जेम्स ओ। बर्गर (द्वितीय संस्करण पृष्ठ 29) द्वारा सांख्यिकीय निर्णय सिद्धांत और बेयसियन विश्लेषण से अनुकूलित एक उदाहरण दिया गया है ।

एक्सyएच0एच1

जेम्स ओ.बर्गर द्वारा सांख्यिकी निर्णय सिद्धांत और बेयसियन विश्लेषण से अनुकूलित तालिका।

एच1एच0

एच0एच0एच0


एच0


एक्स=1y=1एच0yα

फिर भी, मैं स्वीकार करता हूं कि यह उदाहरण कुछ हद तक वंचित है और पूरी तरह से ईमानदार नहीं है क्योंकि यह असतत डेटा के साथ परीक्षणों की व्यवस्था की कठिनाई से खेलता है। निरंतर डेटा के साथ एक समान उदाहरण मिल सकता है लेकिन वे और भी अधिक वंचित होंगे। मैं ओपी से सहमत हूं कि संभावना सिद्धांत का कोई व्यावहारिक मूल्य नहीं है; मैं इसे सिद्धांत के भीतर कुछ स्थिरता की गारंटी देने के लिए एक सिद्धांत के रूप में व्याख्या करता हूं।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.