गैर-बायेसियन पूर्वानुमानात्मक अनुमान (एसएलआर मामले के अलावा) एक अपेक्षाकृत हाल का क्षेत्र है। "गैर-बेसेसियन" के शीर्षक के तहत हम उन दृष्टिकोणों को तोड़ सकते हैं जो "शास्त्रीय" अक्सरवादी बनाम हैं जो "संभावना" आधारित हैं।
शास्त्रीय आवृत्तिवादी भविष्यवाणी
αβ
अब, मेरे पास आम तौर पर इस बात के मुद्दे हैं कि कैसे शास्त्रीय पीआई को प्रस्तुत किया जाता है और अधिकांश सांख्यिकी पाठ्यक्रमों में पढ़ाया जाता है, क्योंकि भारी प्रवृत्ति इनकी व्याख्या बायेसियन पोस्टीरियर प्रेडिक्टिव अंतराल के रूप में करती है, जो कि वे निश्चित रूप से नहीं हैं। सबसे मौलिक रूप से, वे विभिन्न संभावनाओं के बारे में बात कर रहे हैं! बायेशियन अपनी मात्रा के बार-बार नमूने के प्रदर्शन पर कोई दावा नहीं करते हैं (अन्यथा, वे आवृत्तियों होंगे)। दूसरा, एक बायसियन पीआई वास्तव में एक शास्त्रीय टॉलरेंस इंटरवल की तुलना में एक शास्त्रीय सहिष्णुता अंतराल की भावना के समान कुछ और पूरा कर रहा है।
संदर्भ के लिए: सहिष्णुता अंतराल को दो संभावनाओं द्वारा निर्दिष्ट करने की आवश्यकता है : आत्मविश्वास और कवरेज। आत्मविश्वास हमें बताता है कि दोहराया नमूनों में यह कितनी बार सही है। कवरेज हमें बताता है कम से कम संभावना उपाय के तहत अंतराल के सच वितरण (के रूप में पीआई, जो देता है के लिए विरोध की उम्मीद दोहराया नमूने के तहत संभावना उपाय ... फिर से)। यह मूल रूप से बेयसियन पीआई के रूप में अच्छी तरह से करने की कोशिश कर रहा है, लेकिन बिना किसी दोहराए-नमूने के दावों के।
तो, आँकड़े 101 सरल रैखिक प्रतिगमन का मूल तर्क सामान्यता की धारणा के तहत पीआई के दोहराया नमूना गुणों को प्राप्त करना है। इसका अक्सर होने वाला + गौसियन दृष्टिकोण जिसे आमतौर पर "शास्त्रीय" माना जाता है और इंट्रो सांख्यिकी कक्षाओं में पढ़ाया जाता है। यह परिणामी गणना की सादगी पर आधारित है ( विकिपीडिया को एक अच्छे अवलोकन के लिए देखें )।
गैर-गाऊसी संभावना वितरण आम तौर पर समस्याग्रस्त होते हैं, क्योंकि वे एक अंतराल प्राप्त करने के लिए बड़े पैमाने पर महत्वपूर्ण मात्रा में कमी कर सकते हैं। इसलिए, इन वितरणों के लिए कोई "सटीक" तरीका नहीं है, अक्सर क्योंकि अंतराल के गुण सच्चे अंतर्निहित मापदंडों पर निर्भर करते हैं।
इस अक्षमता को स्वीकार करते हुए, संभावना के दृष्टिकोण के साथ भविष्यवाणी का एक और वर्ग उत्पन्न हुआ (और अनुमान और अनुमान)।
संभावना आधारित आविष्कार
संभावना आधारित दृष्टिकोण, कई आधुनिक सांख्यिकीय अवधारणाओं की तरह, रोनाल्ड फिशर का पता लगाया जा सकता है। इस स्कूल का मूल विचार यह है कि विशेष मामलों को छोड़कर, हमारे सांख्यिकीय निष्कर्ष तार्किक रूप से कमजोर जमीन पर होते हैं, जब हम सामान्य वितरण (जिसका पैरामीटर अनुमान ऑर्थोगोनल होते हैं ) से अनुमानों के साथ काम कर रहे हैं , जहां हम सटीक संभावना बयान कर सकते हैं। निष्कर्ष के इस दृष्टिकोण में, किसी को वास्तव में सटीक स्थिति को छोड़कर संभावना के बारे में बयानों से बचना चाहिए, अन्यथा, किसी को संभावना के बारे में बयान देना चाहिए और स्वीकार करना चाहिए कि किसी को त्रुटि की सटीक संभावना नहीं पता है (अक्सर अर्थ में)।
इसलिए, हम बायेसियन संभावना के समान होने के रूप में संभावना देख सकते हैं, लेकिन बिना पूर्णता की आवश्यकताओं के साथ या लगातार संभावना के साथ संभावित भ्रम के बिना। इसकी व्याख्या पूरी तरह से व्यक्तिपरक है ... हालांकि एकल पैरामीटर अनुमान के लिए अक्सर 0.15 की संभावना अनुपात की सिफारिश की जाती है।
हालांकि, किसी को अक्सर ऐसे पेपर नहीं दिखाई देते हैं जो स्पष्ट रूप से "संभावना अंतराल" देते हैं। क्यूं कर? ऐसा प्रतीत होता है कि यह काफी हद तक समाजशास्त्र का विषय है, क्योंकि हम सभी संभावना-आधारित विश्वास कथनों के आदी हो गए हैं। इसके बजाय, जो आप अक्सर देखते हैं वह एक "अनुमानित" या "असममित" आत्मविश्वास अंतराल और इस तरह के संदर्भ का उल्लेख है। ये अंतराल काफी हद तक संभावना के तरीकों से प्राप्त होते हैं, जहां हम समान अनुपात के एसिम्प्टोटिक ची-वर्गीय वितरण पर निर्भर होते हैं, उसी तरह जहां हम नमूना माध्य की विषमता संबंधी सामान्यता पर भरोसा करते हैं।
इस "फिक्स" के साथ अब हम "लगभग" 95% कॉन्फिडेंस रीजन का निर्माण कर सकते हैं, जिसमें लगभग बेज़ियन के रूप में बहुत तार्किक स्थिरता है।
संभावना फ्रेम में सीआई से पीआई तक
उपरोक्त संभावना दृष्टिकोण की सफलता और सहजता ने विचारों को प्रेरित किया कि कैसे इसे भविष्यवाणी तक बढ़ाया जाए। इस पर एक बहुत अच्छा सर्वेक्षण लेख यहां दिया गया है (मैं इसके उत्कृष्ट कवरेज को पुन: पेश नहीं करूंगा)। यह 1970 के दशक के अंत में डेविड हिंकले ( जेएसटीओआर ) को देखा जा सकता है , जिन्होंने इस शब्द को गढ़ा था। उन्होंने इसे बारहमासी " पियरसन के द्विपद भविष्यवाणी समस्या " पर लागू किया। मैं मूल तर्क को संक्षेप में बताऊंगा।
yyy
भविष्य कहनेवाला संभावना प्राप्त करने के लिए "उपद्रव" मापदंडों से छुटकारा पाने के लिए बुनियादी नियम इस प्रकार हैं:
- μ , σ
- यदि कोई पैरामीटर यादृच्छिक है (उदाहरण के लिए, अन्य अनबॉस्स्ड डेटा या "यादृच्छिक प्रभाव"), तो आप उन्हें एकीकृत करते हैं (जैसे बायेसियन दृष्टिकोण में)।
एक निश्चित और यादृच्छिक पैरामीटर के बीच का अंतर संभावना के अनुमान के लिए अद्वितीय है, लेकिन इसमें मिश्रित प्रभाव वाले मॉडल के कनेक्शन हैं, जहां ऐसा लगता है कि बेयसियन, लगातार, और संभावना फ्रेमवर्क टकराते हैं।
उम्मीद है कि इसने आपके प्रश्न का उत्तर "गैर-बायेसियन" भविष्यवाणी के व्यापक क्षेत्र (और उस मामले के लिए अनुमान) के बारे में दिया। चूंकि हाइपरलिंक्स बदल सकते हैं, इसलिए मैं "इन ऑल लाइकलीहुड: स्टैटिस्टिकल मॉडलिंग एंड लाइकेंस इन लाइकेलहुड" नामक पुस्तक के लिए एक प्लग भी बनाऊंगा, जिसमें गहराई से आधुनिक संभावना फ्रेमवर्क पर चर्चा होती है, जिसमें संभावना बनाम बायेसियन बनाम एपिस्टेमोलॉजिकल मुद्दों की उचित मात्रा शामिल है। अनुमान और भविष्यवाणी।
संदर्भ
- भविष्यवाणी अंतराल: गैर-पैरामीट्रिक तरीके । विकिपीडिया। 9/13/2015 तक पहुँचा।
- ब्योर्नस्टैड, जान एफ। प्रेडिक्टिव लिवेलिहुड : ए रिव्यू। सांख्यिकीविद। विज्ञान। 5 (1990), नहीं। 2, 242--254। डोई: 10.1214 / एस एस / +११७७०१२१७५।
http://projecteuclid.org/euclid.ss/1177012175 ।
- डेविड हिंकले। भविष्य कहनेवाला । सांख्यिकी के इतिहास वॉल्यूम। 7, नंबर 4 (जुलाई, 1979), पीपी। 718-728 द्वारा प्रकाशित: गणितीय सांख्यिकी संस्थान स्थिर URL: http://www.jstor.org/stable/2958920
- युदि पवन। सभी संभावना में: सांख्यिकीय मॉडलिंग और संभावना का उपयोग करना। ऑक्सफोर्ड यूनिवरसिटि प्रेस; 1 संस्करण (30 अगस्त, 2001)। आईएसबीएन -10: 0198507658, आईएसबीएन -13: 978-0198507659। विशेषकर अध्याय 5.5-5.9, 10 और 16।