लोग "साक्ष्य के वजन" शब्द का उपयोग क्यों करते हैं और यह "बिंदुवार पारस्परिक जानकारी" से कैसे भिन्न होता है?


11

यहाँ, "साक्ष्य का वजन" (WOE) प्रकाशित वैज्ञानिक और नीति-निर्माण साहित्य में एक सामान्य शब्द है, जिसे सबसे अधिक बार जोखिम मूल्यांकन के संदर्भ में देखा जाता है:

w(e:h)=logp(e|h)p(e|h¯)

जहां सबूत है, एच परिकल्पना है।eh

अब, मैं जानना चाहता हूं कि पीएमआई के साथ मुख्य अंतर क्या है (बिंदुवार पारस्परिक जानकारी)

pmi(e,h)=logp(e,h)p(e)p(h)

मेरा मानना ​​है कि यह शब्द इस पत्र में गढ़ा गया था: projecteuclid.org/…
जॉनरोस

@ जॉनरोस: जबकि यह एक दिलचस्प पेपर है, सबूतों की अवधारणा वजन का नाम नहीं दिया गया था। IJ Good की 1950 में एक किताब छपी है, और कहते हैं कि उन्होंने A Turing से अवधारणा खुद Bletchley Park में सीखी!
kjetil b halvorsen

ध्यान दें कि यहाँ परिभाषित के रूप में शोक सिर्फ एक लॉग संभावना अनुपात है। इस साइट पर इसके कई उल्लेख एक अलग अवधारणा है, आँकड़े
kjetil b halvorsen

जवाबों:


5

हालांकि वे समान दिखते हैं, वे काफी अलग चीजें हैं। चलिए प्रमुख अंतरों से शुरू करते हैं।

  • h
    p(h)hh


  • pmi(e,h)=pmi(h,e)w(h:e)=logp(h|e)/p(h|e¯)e¯w(e:h)

इसके अलावा, WOE और PMI में समानताएं हैं।

hh¯

eh

hh1/100011log0.999/0.001=6.90116.90011

यह विरोधाभासी व्यवहार दो चीजों को दिखाता है:

  1. 11/10000116.90

  2. PMI परिकल्पना की प्राप्ति के बारे में (शैनन की) जानकारी का एक लाभ है, यदि परिकल्पना लगभग सुनिश्चित है, तो कोई भी जानकारी प्राप्त नहीं होती है। WOE हमारी पूर्व की बाधाओं का एक अद्यतन है , जो उन बाधाओं के मूल्य पर निर्भर नहीं करता है।


p(e|h)p(h)p(e|h)=p(e,h)p(h)

1
hp(e|h)p(h)
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.