बेंटियन सांख्यिकी के लिए गेंटलर दृष्टिकोण


20

मैंने हाल ही में बोलस्टैड द्वारा "बायेसियन स्टेटिस्टिक्स का परिचय" दूसरा संस्करण पढ़ना शुरू किया। मेरे पास एक परिचयात्मक आँकड़े वर्ग है जो मुख्य रूप से सांख्यिकीय परीक्षणों को कवर करता है और लगभग प्रतिगमन विश्लेषण में एक वर्ग के माध्यम से होता है। इस एक को समझने के लिए मैं और किन पुस्तकों का उपयोग कर सकता हूं?

मैंने इसे पहले 100-125 पृष्ठों के माध्यम से ठीक किया है। बाद में पुस्तक परिकल्पना परीक्षण पर बात करना शुरू करती है जो कि मैं कवर करने के लिए बहुत उत्साहित हूं लेकिन मुझे फेंकने वाली कुछ चीजें हैं:

  • गणना में संभाव्यता घनत्व कार्यों का उपयोग। दूसरे शब्दों में ऐसे समीकरणों का मूल्यांकन कैसे करें।
  • यह पूरा वाक्य: "मान लीजिए कि हम पाई के लिए एक बीटा (1,1) का उपयोग करते हैं। तब y = 8 दिया जाता है, पीछे का घनत्व बीटा (9,3) है। शून्य परिकल्पना की पूर्ववर्ती संभावना है ..." मेरा मानना ​​है कि बीटा (1,1) एक पीडीएफ को संदर्भित करता है जहां माध्य 1 है और स्टदेव 1 है? मुझे नहीं पता कि यह कैसे एक बीटा (9,3) के रूप में एक पिछले घनत्व समारोह के रूप में बदल जाएगा।

मुझे पोस्टर्स बनाम पोस्टर्स की अवधारणा मिलती है और समझ में आता है कि मैन्युअल रूप से टेबल का उपयोग करके उन्हें कैसे लागू किया जाए। मुझे लगता है (मुझे लगता है!) कि पी माना जाता जनसंख्या अनुपात या संभावना का प्रतिनिधित्व करता है।

मुझे यह नहीं मिलता कि मैं इसे डेटा के साथ कैसे जोड़ता हूं, मैं एक दिन में दिन के आधार पर चलता हूं और परिणाम प्राप्त करता हूं।


पैरामीटर π एक द्विपद मॉडल की जनसंख्या संभावना होने के संदर्भ से प्रकट होता है। इस मामले में, एक बीटा वितरण ज्ञात n और अज्ञात साथ एक द्विपद संभावना के लिए संयुग्म है π। हालांकि, बीटा वितरण के पैरामीटर औसत और मानक विचलन नहीं हैं, जैसा कि सामान्य वितरण के लिए होता है। बीटा वितरण के मापदंडों के संदर्भ में बीटा रैंडम वेरिएबल के माध्य और विचरण के सूत्र को देखने के लिए विकिपीडिया पृष्ठ को देखें।
कैबुरे अगे

धन्यवाद! पहले से तय एक और शब्द है जो मेरे लिए परिचित नहीं है। मैं एक परिचयात्मक स्तर पर इसके बारे में और कहां सीख सकता हूं?
जस्टिन बोजोनियर

8
आप एक और अधिक व्यावहारिक पाठ में रुचि हो सकती है, क्या आपने हैकर्स के लिए बेयसियन तरीके देखे हैं? (प्रकटीकरण - मैं एक योगदान लेखक हूं) इसके लिए खोज करने का प्रयास करें (यह ओपनसोर्स और मुक्त है)।
Cam.Davidson.Pilon

@JustinBozonier यह लिंक आंकड़े .stackexchange.com/questions/66018/… अलग-अलग शब्दों में लोगों को पुजारी का वर्णन करने के लिए उपयोग किए जाने वाले कुछ शब्दों का ब्योरा देता है, जिसमें संयुग्मित पुजारी भी शामिल हैं।
साइकोरैक्स का कहना है कि मोनिका

1
@ Cam.Davidson.Pilon इसके लिए धन्यवाद! अकेले इस पृष्ठ पर चार्ट में मान्यताओं के अद्यतन से मुझे यह जानने में मदद मिल रही है कि अन्य लोग क्या कह रहे हैं: nbviewer.ipython.org/urls/raw.github.com/CamDavidsonPilon/ ...
जस्टिन बोज़ोनियर

जवाबों:


26

गणना में संभाव्यता घनत्व कार्यों का उपयोग। दूसरे शब्दों में ऐसे समीकरणों का मूल्यांकन कैसे करें।

मुझे लगता है कि आप अभी भी एक लगातार दृष्टिकोण से सोच रहे हैं: यदि आप एक बिंदु अनुमान की तलाश कर रहे हैं, तो पीछे यह आपको नहीं देगा। आप पीडीएफ डालते हैं, आप पीडीएफ निकालते हैं। आप अपने पीछे के वितरण से आंकड़ों की गणना करके बिंदु अनुमान प्राप्त कर सकते हैं, लेकिन मैं इसे थोड़ा सा प्राप्त करूंगा।

मुझे पोस्टर्स बनाम पोस्टर्स की अवधारणा मिलती है और समझ में आता है कि मैन्युअल रूप से टेबल का उपयोग करके उन्हें कैसे लागू किया जाए। मुझे लगता है (मुझे लगता है!) कि पी माना जाता जनसंख्या अनुपात या संभावना का प्रतिनिधित्व करता है।

के रूप में एक ही बात है: वे दोनों पीडीएफ़ कर रहे हैं। केवल पारंपरिक रूप से यह बताने के लिए उपयोग किया जाता है कि विशेष PDF एक पूर्व घनत्व है।π(x)πp(x)π

मुझे संदेह है कि आपको पुजारी और पोस्टएयर नहीं मिलते हैं, जैसा कि आप सोचते हैं कि आप ऐसा करते हैं, तो आइए इसे बेसेनियन सांख्यिकी के मूल आधार पर वापस करते हैं: विषय संभावित

विषय संभावित में एक सोचा प्रयोग

मान लीजिए कि मैं आपको एक सिक्का पेश करता हूं और आपसे पूछता हूं कि आपको लगता है कि यह सिक्का एक उचित सिक्का है या नहीं। आपने बहुत से लोगों को संभावना वर्ग में अनुचित सिक्कों के बारे में बात करते सुना है, लेकिन आपने वास्तव में वास्तविक जीवन में कभी नहीं देखा है, इसलिए आप जवाब देते हैं, "हाँ, निश्चित रूप से, मुझे लगता है कि यह एक उचित सिक्का है।" लेकिन, यह तथ्य कि मैं आपसे यह प्रश्न पूछ रहा हूं, आपको थोड़ा-बहुत बंद कर देता है, इसलिए यद्यपि आपका अनुमान है कि यह उचित है, तो आप वास्तव में आश्चर्यचकित नहीं होंगे यदि यह नहीं था। बहुत कम हैरानी की बात है अगर आपको यह सिक्का आपकी जेब बदलने में मिला (क्योंकि आप मानते हैं कि यह सभी वास्तविक मुद्रा है, और आपको वास्तव में मुझ पर भरोसा नहीं है क्योंकि अब मैं संदिग्ध अभिनय कर रहा हूं)।

अब, हम कुछ प्रयोग चलाते हैं। 100 फ़्लिप के बाद, सिक्का 53 हेड्स वापस देता है। आप बहुत अधिक आश्वस्त हैं कि यह एक उचित सिक्का है, लेकिन आप अभी भी इस संभावना के लिए खुले हैं कि यह नहीं है। अंतर यह है कि अब आप बहुत आश्चर्यचकित होंगे अगर यह सिक्का किसी तरह के पूर्वाग्रह से बाहर निकला।

हम कैसे अपने पूर्व और पीछे विश्वासों यहाँ विशेष रूप से संभावना है कि सिक्का सिर (जिसे हम निरूपित जाएगा दिखाएगा के बारे में प्रतिनिधित्व कर सकते हैं,, )? एक frequentist की स्थापना में, अपने पूर्व विश्वास - अपने शून्य परिकल्पना - जो है θ = 0.5 । प्रयोग चलाने के बाद, आप अशक्त को अस्वीकार करने में सक्षम नहीं हैं, और इसलिए आप इस धारणा के साथ जारी रखते हैं कि हां, सिक्का संभवतः उचित है। लेकिन हम आपके विश्वास में बदलाव को कैसे रोकते हैं कि सिक्का उचित है? प्रयोग के बाद आप इस स्थिति में होते हैं कि आप शर्त लगाते हैं कि सिक्का उचित है, लेकिन प्रयोग से पहले आप थकाऊ होंगे।θθ=0.5

बायेसियन सेटिंग में, आप संभावनाओं को स्केलर मानों के रूप में नहीं बल्कि यादृच्छिक चर के रूप में कार्य करते हुए प्रस्तावों पर अपना विश्वास अतिक्रमण करते हैं। इसके बजाय कह के हम कहते हैं θ ~ एन ( 0.5 , σ 2 ) , और इस तरह पीडीएफ के विचरण में हमारे विश्वास को संपुटित। हम एक उच्च विचरण सेट करते हैं, हम कह रहे हैं, "मुझे लगता है कि संभावना 0.5 है, लेकिन अगर संभावना मैं वास्तव में दुनिया में निरीक्षण तक इस मूल्य से दूर है मैं हैरान नहीं किया जाएगा। मुझे लगता है कि θ = 0.5θ=0.5θN(0.5,σ2)θ=0.5, लेकिन स्पष्ट रूप से मैं वास्तव में निश्चित नहीं हूं। "कम विचरण सेट करके, हम कह रहे हैं," न केवल मुझे विश्वास है कि संभावना 0.5 है, लेकिन मुझे बहुत आश्चर्य होगा यदि प्रयोग एक मूल्य प्रदान करता है जो बहुत करीब नहीं है । "इसलिए, इस उदाहरण में जब आप प्रयोग शुरू करते हैं तो आपके पास उच्च विचरण के साथ एक पूर्व होता है। आपके पूर्व में पुष्टि करने वाले डेटा प्राप्त करने के बाद, पूर्व का अर्थ समान रहता था, लेकिन विचरण बहुत संकीर्ण हो गया था।" θ = 0.5 पहले की तुलना में प्रयोग चलाने के बाद बहुत अधिक है।θ=0.5θ=0.5

तो हम गणना कैसे करते हैं?

हम पीडीएफ के साथ शुरू करते हैं, और हम पीडीएफ के साथ समाप्त होते हैं। जब आपको एक बिंदु अनुमान की रिपोर्ट करने की आवश्यकता होती है, तो आप अपने पिछले वितरण के माध्य, माध्य या मोड जैसे आंकड़ों की गणना कर सकते हैं (आपके नुकसान फ़ंक्शन के आधार पर, जो मुझे अब नहीं मिलेगा। चलो बस इस मतलब के साथ रहें)। यदि आपके पास अपने पीडीएफ के लिए एक बंद फॉर्म समाधान है, तो संभवतः इन मूल्यों को निर्धारित करना तुच्छ होगा। यदि पश्च भाग जटिल है, तो आप अपने द्वारा लिए गए नमूने से अपने पिछले और व्युत्पन्न आँकड़ों से नमूना लेने के लिए MCMC जैसी प्रक्रियाओं का उपयोग कर सकते हैं।

उदाहरण में जहां आपके पास एक बीटा पूर्व और एक द्विपद संभावना है, पश्च की गणना बहुत साफ गणना में कम हो जाती है। दिया हुआ:

  • पहले: θBeta(α,β)
  • संभावना: X|θBinomial(θ)

तब पीछे करने के लिए कम हो जाता है:

  • पोस्टीरियर: θ|XBeta(α+i=1nxi,β+ni=1nxi)

यह किसी भी समय होगा जब आपके पास एक बीटा पूर्व और एक द्विपद संभावना है, और यही कारण है कि डीजेई द्वारा प्रदान की गई गणना में स्पष्ट होना चाहिए । जब एक विशेष पूर्व-संभावना मॉडल हमेशा एक ऐसा पश्च देता है जिसमें पूर्व की तरह समान वितरण होता है, तो पूर्व और संभावना के लिए उपयोग किए जाने वाले वितरण के प्रकारों के बीच संबंध को कंजुगेट कहा जाता है । कर रहे हैं वितरण के कई जोड़े के संयुग्म रिश्ते हैं कि, और conjugacy बहुत बार सरल गणना के Bayesians द्वारा आपूर्तित है। एक विशेष संभावना को देखते हुए, आप पहले से एक संयुग्म का चयन करके अपने जीवन को बहुत आसान बना सकते हैं (यदि कोई मौजूद है और आप अपनी पसंद का औचित्य साबित कर सकते हैं)।

मेरा मानना ​​है कि बीटा (1,1) एक पीडीएफ को संदर्भित करता है जहां माध्य 1 है और स्टदेव 1 है?

सामान्य वितरण के सामान्य पैरामीटर में, दो पैरामीटर वितरण के माध्य और मानक विचलन को दर्शाते हैं। लेकिन यह है कि हम सामान्य वितरण को कैसे मापते हैं। अन्य प्रायिकता वितरण को बहुत अलग तरीके से परिचालित किया जाता है।

Beta(α,β)αβ

XBeta(α,β)E[X]=αα+βvar[X]=αβ(α+β)2(α+β+1)

जैसा कि आप स्पष्ट रूप से देख सकते हैं, माध्य और विचरण इस वितरण के मानकीकरण का हिस्सा नहीं हैं, लेकिन उनके पास बंद समाधान हैं जो इनपुट मापदंडों के सरल कार्य हैं।

Beta(1,1)Uniform(0,1)


4
आपके उत्तर की मुख्य बात यह थी कि मुझे एक ही मूल्य की तलाश थी, जहां मैं लटका हुआ था। एक बार जब मैंने क्रुश्के पाठ के वितरण के संदर्भ में सोचना शुरू किया और बाकी सब कुछ बहुत अधिक समझ में आने लगा। धन्यवाद!
जस्टिन बोजोनियर

8

पी(θ)=Γ(α)Γ(β)Γ(α+β)θα-1(1-θ)β-1(α,β)=(1,1)

द्विपदीय संभावना के साथ बीटा से पहले (द्विआधारी परिणामों के साथ परीक्षणों की निश्चित संख्या और सफलता / असफलता की निश्चित संभावनाएं) में संयुग्मता की संपत्ति होती है, जो पश्च (पूर्व और संभावना के उत्पाद) को बंद रूप में लिखने की अनुमति देती है:

p(θ|y)=p(y|θ)p(θ)p(y)  Γ(α)Γ(β)Γ(α+β)θα1(1θ)β1(ny)θy(1θ)ny  θα1(1θ)β1θy(1θ)ny θα+y1(1θ)β+ny1 =Γ(α+y1)Γ(β+ny1)Γ(α+β+n1)θα+y1(1θ)β+ny1

θ

यह बंद-रूप अभिव्यक्ति सुविधाजनक है, लेकिन किसी भी तरह से आवश्यक नहीं है। गुणा करने की संभावना घनत्वों को उसी तरह किया जा सकता है जैसे कि अन्य गणितीय अभिव्यक्तियों को गुणा करना; कठिनाइयों का आगमन होता है क्योंकि घनत्व के कई उत्पाद बीटा पूर्व / द्विपद संभावना की तरह आसानी से नहीं लिखे जाते हैं। सौभाग्य से, यह वह जगह है जहां कंप्यूटर सुस्त उठाते हैं।


7

यदि आप एक gentler दृष्टिकोण की तलाश कर रहे हैं तो मैं क्रुस्के द्वारा पुस्तक की सिफारिश कर सकता हूं जो कोर अवधारणाओं को समझाने के लिए R का उपयोग करता है। यह बायेसियन सांख्यिकी सीखने में एक बहुत ही व्यावहारिक और हाथों पर दृष्टिकोण है और उसकी वेबसाइट पर आप उपयोग किए गए सभी कोड पा सकते हैं।

किसी ने मुझे Cam.Davidson.Pilon के पाठ की भी सिफारिश की, इसे अभी तक नहीं देखा है लेकिन यह यहाँ पाया जा सकता है


1
धन्यवाद! मैं वास्तव में पहले से ही क्रुश्के की किताब का मालिक हूं और बस इसकी समीक्षा करने के लिए वापस चला गया और महसूस किया कि वास्तव में मुझे अभी इसकी आवश्यकता है। सूचक के लिए धन्यवाद!
जस्टिन बोजोनियर

@JustinBozonier मैं भी सांख्यिकी (मूड) के सिद्धांत का परिचय अत्यधिक सुझाता हूं । यह अपेक्षाकृत उच्च स्तर की कठोरता प्रदान करता है, लेकिन केवल यह मानता है कि आप बहुत बुनियादी गणना जानते हैं।
स्टीव पी।
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.