बेय्स 'प्रमेय अंतर्ज्ञान


22

मैं पहले , पीछे , संभावना और सीमांत संभावना के संदर्भ में बेयस प्रमेय की एक अंतर्ज्ञान आधारित समझ विकसित करने की कोशिश कर रहा हूं । उसके लिए मैं निम्नलिखित समीकरण का उपयोग करता हूं:

P(B|A)=P(A|B)P(B)P(A)
जहांAएक परिकल्पना या विश्वास काप्रतिनिधित्व करताहै औरडेटा या सबूत का प्रतिनिधित्व करता है। मैंनेपश्चकी अवधारणा को समझा है- यह एक एकीकृत इकाई है जोपूर्वविश्वास औरकिसी घटनाकीसंभावनाको जोड़ती है। मुझे समझ में नहीं आ रहा है किसंभावनाक्या है? और क्यों हर मेंसीमांतसंभावना है? कुछ संसाधनों की समीक्षा करने के बाद मैं इस उद्धरण पर आया:B

संभावना घटना का वजन है की घटना द्वारा दिए गए ... है पीछे घटना की संभावना , यह देखते हुए कि घटना हो गई है।पी ( बी |)BAP(B|A)BA

उपरोक्त 2 कथन मेरे लिए समान हैं, बस अलग-अलग तरीकों से लिखे गए हैं। किसी को भी कृपया दोनों के बीच अंतर समझा सकते हैं?


4
आपके पास एक टाइपो (या गलत धारणा) है। B को "परिकल्पना या विश्वास" होना चाहिए , और A आपके सूत्रीकरण में "डेटा या सबूत" होना चाहिए।
गूँग - मोनिका

1
math.stackexchange.com/a/1943255/1505 पर मेरा उत्तर देखें कि कैसे मैंने इसे सहजता से समझ लिया है
लिंडन व्हाइट

जवाबों:


27

हालांकि Bayes के कानून में सूचीबद्ध चार घटकों देखते हैं, मैं तीन वैचारिक घटकों के आधार पर विचार करना पसंद करते हैं:

P(B|A)2=P(A|B)P(A)3P(B)1
  1. पहले आप के बारे में क्या माना जाता है से पहले जानकारी का एक नया और प्रासंगिक टुकड़ा (यानी, का सामना करना पड़ा रहा है एक )। B A
  2. बाद वाला वह है जो आप मानते हैं (या यदि आप तर्कसंगत हैं, तो ) के बारे में जानकारी के एक नए और प्रासंगिक टुकड़े का सामना करने के बादB
  3. संभावना के भागफल जानकारी के नए टुकड़ा के सीमांत संभावना से विभाजित अनुक्रमित informativeness के बारे में अपनी मान्यताओं के लिए नई जानकारी के B

19

कई अच्छे जवाब पहले से ही हैं, लेकिन शायद यह कुछ नया जोड़ सकता है ...

मैं हमेशा घटक संभावनाओं के संदर्भ में बेयस नियम के बारे में सोचता हूं, जिसे नीचे दिए गए चित्र के अनुसार और बी के रूप में ज्यामितीय रूप से समझा जा सकता है ।AB

Event Sets

सीमांत संभावनाओं और पी ( बी ) इसी हलकों के क्षेत्रों से दिया जाता है। सभी संभावित परिणामों का प्रतिनिधित्व कर रहे पी ( बी ) = 1 , घटनाओं "के सेट करने के लिए इसी एक या बी "। संयुक्त संभाव्यता पी ( बी ) घटना "से मेल खाती है एक और बी "।P(A)P(B)P(AB)=1AB P(AB)AB

इस ढांचे में, बेयस प्रमेय में सशर्त संभावनाओं को क्षेत्रों के अनुपात के रूप में समझा जा सकता है। की संभावना दिए गए बी के अंश है बी के कब्जे में एक बी , के रूप में व्यक्त पी ( एक | बी ) = पी ( बी )ABBAB इसी तरह, की संभावनाबीदिए गएएकके अंश हैएकके कब्जे मेंएकबी, यानी पी(बी|एक)=पी(बी)

P(A|B)=P(AB)P(B)
BAAAB
P(B|A)=P(AB)P(A)

Bayes प्रमेय वास्तव में सिर्फ उपरोक्त परिभाषाओं का एक गणितीय परिणाम है, जो के रूप में फिर से बताने से किया जा सकता है मैं इस खोजने के सममित बेयस प्रमेय का रूप याद रखने में बहुत आसान है। यही है, पहचान की परवाह किए बिना कि कौन सा पी ( ) या पी ( बी ) "पूर्व" बनाम "पीछे" लेबल है।

P(B|A)P(A)=P(AB)=P(A|B)P(B)
p(A)p(B)

(उपरोक्त चर्चा को समझने का एक और तरीका है करने के लिए अपने जवाब में दी गई है इस सवाल का , एक और अधिक "लेखांकन स्प्रेडशीट" दृष्टि से।)


9

@gung का शानदार जवाब है। मैं वास्तविक दुनिया के उदाहरण में "दीक्षा" की व्याख्या करने के लिए एक उदाहरण जोड़ूंगा।

वास्तविक दुनिया के उदाहरणों के साथ बेहतर संबंध के लिए, मैं संकेतन को बदलना चाहूंगा, जहां का उपयोग परिकल्पना ( आपके समीकरण में ) का प्रतिनिधित्व करने के लिए और सबूत का प्रतिनिधित्व करने के लिए का उपयोग करें । ( आपके समीकरण में बी ।)HAEB

तो सूत्र है

P(H|E)=P(E|H)P(H)P(E)

नोट उसी सूत्र को लिखा जा सकता है जैसे

P(H|E)P(E|H)P(H)

जहां का मतलब के लिए आनुपातिक और पी ( | एच ) है संभावना और पी ( एच ) है पहले । इस समीकरण का मतलब है कि पीछे वाला बड़ा होगा, अगर समीकरण का दाहिना भाग बड़ा होगा। और आप सोच सकते हैं कि पी ( ) संख्या को संभावना में बनाने के लिए एक सामान्यीकरण स्थिरांक है (मैं कहता हूं कि यह एक निरंतरता है क्योंकि साक्ष्य पहले से ही दिया गया है।)।P(E|H)P(H)P(E)E

H{0,1}

11000P(H=1)=0.001P(H=0)=0.999

P(H|E)

E{0,1}

संभावना पी(E=1|H=0) may be small, which means given a normal transaction, it is very unlikely the location is strange. On the other hand, P(E=1|H=1) can be large.

Suppose, we observed E=1 we want to see if it is a fraud or not, we need to consider both prior and likelihood. Intuitively, from prior, we know there are very few fraud transactions, we would likely to be very conservative to make a fraud classification, unless the evidence is very strong. Therefore, the product between two will consider two factors at same time.


I think there may be a typo in the prior: P(H=0) should be 0.999 and P(H=1)=0.001, right?
gc5

1

Note that Bayes' rule is

P(a|b)=P(b,a)P(b)=P(b,a)P(b)P(a)P(a).

Note the ratio

P(b,a)P(b)P(a).

If BA, then P(b,a)=P(b)P(a). So it’s almost like telling us how far the joint deviates from full independence, or how much information the variables have in common.

Interestingly, the log of this ratio is also present in mutual information:

I(A|B)=a,bP(a,b)logP(b,a)P(b)P(a)


0

I often find viewing the theorem as a table, with the possible outcomes for "B" as the rows, and the possible outcomes for "A" as the columns. The joint probabilities P(A,B) are the values for each cell. In this table we have

likelihood = row proportions posterior = column proportions

The prior and marginal are analogously defined, but based on "totals" instead of a particular column

marginal = row total proportions prior = column total proportions

I find this helps me.

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.