डी-पृथक्करण सिद्धांत को कारण बायेसियन नेटवर्क में समझना


15

मैं Causal Bayesian Networks में d- सेपरेशन लॉजिक को समझने की कोशिश कर रहा हूँ। मुझे पता है कि एल्गोरिथ्म कैसे काम करता है, लेकिन मुझे समझ में नहीं आता है कि एल्गोरिथ्म में "सूचना का प्रवाह" क्यों काम करता है।

यहाँ छवि विवरण दर्ज करें

उदाहरण के लिए ऊपर दिए गए ग्राफ़ में, हमें लगता है कि हमें केवल एक्स दिया गया है और कोई अन्य चर नहीं देखा गया है। फिर डी-सेपरेशन के नियमों के अनुसार, एक्स से डी तक सूचना प्रवाह:

  1. एक्स एक है, जो प्रभावित करती है । यह ठीक है, क्योंकि ए का कारण बनता है एक्स और यदि हम एक्स के प्रभाव के बारे में जानते हैं, तो इससे ए की जानकारी के प्रवाह के बारे में हमारी धारणा प्रभावित होती है।P(A)P(A|X)

  2. एक्स बी, जो प्रभावित करती है । यह ठीक है, क्योंकि ए को एक्स के बारे में हमारे ज्ञान द्वारा बदल दिया गया है, ए में परिवर्तन इसके कारण, बी के बारे में हमारी मान्यताओं को प्रभावित कर सकता है।P(B)P(B|X)

  3. एक्स सी, जो प्रभावित करती है । यह ठीक है क्योंकि हम जानते हैं कि बी हमारे अप्रत्यक्ष प्रभाव, एक्स के बारे में हमारे ज्ञान से पक्षपाती है, और चूंकि बी एक्स द्वारा पक्षपाती है, यह बी के सभी प्रत्यक्ष और अप्रत्यक्ष प्रभावों को प्रभावित करेगा। C, B का प्रत्यक्ष प्रभाव है और यह X के बारे में हमारे ज्ञान से प्रभावित है।P(C)P(C|X)

खैर, इस बिंदु तक, सब कुछ मेरे लिए ठीक है क्योंकि सूचना का प्रवाह सहज कारण प्रभाव वाले रिश्तों के अनुसार होता है। लेकिन मुझे इस योजना में तथाकथित "वी-स्ट्रक्चर" या "कोलाइडर्स" का विशेष व्यवहार नहीं मिला है। डी-सेपरेशन सिद्धांत के अनुसार, B और D उपरोक्त ग्राफ में C के सामान्य कारण हैं और यह कहता है कि यदि हमने C या इसके किसी वंशज का अवलोकन नहीं किया है, तो X से प्रवाह की जानकारी C पर अवरुद्ध है। ठीक है, ठीक है , लेकिन मेरा सवाल यह है कि क्यों?

ऊपर के तीन चरणों में से, X से शुरू हुआ, हमने देखा कि C, X के बारे में हमारे ज्ञान से प्रभावित है और कारण-प्रभाव संबंध के अनुसार सूचना प्रवाह होता है। डी-सेपरेशन सिद्धांत कहता है कि हम C से D तक नहीं जा सकते क्योंकि C का अवलोकन नहीं किया गया है। लेकिन मुझे लगता है कि जब से हम जानते हैं कि C पक्षपाती है और D C का एक कारण है, डी को प्रभावित होना चाहिए, जबकि सिद्धांत इसके विपरीत कहता है। मैं अपनी सोच के पैटर्न में स्पष्ट रूप से कुछ याद कर रहा हूं, लेकिन यह नहीं देख सकता कि यह क्या है।

इसलिए मुझे स्पष्टीकरण की आवश्यकता है कि C पर सूचना का प्रवाह अवरुद्ध क्यों है, यदि C नहीं देखा गया है।


यह X से D तक प्रवाहित नहीं होता है, यदि केवल X मनाया जाता है। आप इसे चित्र के ठीक नीचे स्थित करें। (हालांकि आप इसे सही ढंग से और नीचे वर्णित करते हैं)।
जिग्गीस्टार

मुझे यह पहले से ही पता है, कि सूचना प्रवाह C पर अवरुद्ध है जहां हमारे पास "वी-स्ट्रक्चर" है। जो मैं जानना चाहता हूं वह क्यों है; जब हम सी का निरीक्षण नहीं करते हैं, तो एक वी-स्ट्रक्चर सूचना प्रवाह को अवरुद्ध कर देता है, जो एक कारण-प्रभाव संबंध बिंदु से होता है।
उफुक कैन बिचिस

जवाबों:


6

क्या यह सहज नहीं है कि आप अकारण प्रभाव से दूसरे कारण का कारण नहीं बन सकते? यदि बारिश (बी) और स्प्रिंकलर (डी) गीली जमीन (सी) के कारण हैं, तो क्या आप तर्क दे सकते हैं कि बारिश को देखकर लगता है कि जमीन शायद गीली है, और इस कारण से जारी रखें कि छिड़काव जमीन पर होना चाहिए गीला है?! बिलकूल नही। आपने तर्क दिया कि बारिश के कारण मैदान गीला था - आप अतिरिक्त कारणों की तलाश नहीं कर सकते हैं!

यदि आप गीली जमीन का निरीक्षण करते हैं, तो निश्चित रूप से स्थिति बदल जाती है। अब आप एक कारण से दूसरे कारण के लिए सक्षम हो सकते हैं जैसा कि फ्रैंक बताते हैं।


4

आइए एक पल के लिए एक्स के बारे में भूल जाएं और बी, सी और डी के बस कोलाइडर पर विचार करें। इसका कारण यह है कि वी-संरचना बी और डी के बीच के मार्ग को अवरुद्ध कर सकती है, सामान्य तौर पर, यदि आपके पास दो स्वतंत्र यादृच्छिक चर (बी और हैं) डी) जो एक ही परिणाम (सी) को प्रभावित करते हैं, तो परिणाम जानने से आप यादृच्छिक चर के बीच के संबंध के बारे में निष्कर्ष निकाल सकते हैं, इस प्रकार सूचना प्रवाह की अनुमति देते हैं।

पी(बी|डी)पी(बी)पी(डी|बी)पी(डी))। इसलिए, यह जानकर कि लॉन गीला है, मार्ग को अनब्लॉक करता है और बी और डी निर्भर करता है।

इसे बेहतर समझने के लिए, बर्कसन के विरोधाभास पर एक नज़र डालना उपयोगी हो सकता है , जो उसी स्थिति का वर्णन करता है।


1) मुझे यह समझने में कठिनाई है कि डी-सेपरेशन के बारे में कुछ भी परिभाषित करने से पहले एक स्वतंत्र कारण क्या है। कई लेखक सहज-प्रभाव प्रभाव संबंधों का उपयोग करके डी-सेपरेशन को परिभाषित करते हैं। मैं एक तर्क प्रणाली बनाने की कोशिश करता हूं, जो मैं विभिन्न स्रोतों से पढ़ रहा हूं और अपने अंतर्ज्ञान पर आधारित हूं, इसलिए मैं इस प्रमेय के संदर्भ में आ सकता हूं। यह निम्नलिखित की तरह है: "यदि एक्स के अलावा कोई चर नहीं देखा जाता है, तो एक्स के बारे में ज्ञान एक्स के प्रभाव (सभी वंशज), एक्स के प्रत्यक्ष या अप्रत्यक्ष कारणों (पूर्वजों) और एक्स के कारणों के अन्य सभी प्रभावों को प्रभावित कर सकता है।"
उफुक कैन बिसीसी

2) मैं इस तरह के विचार को सही ठहराता हूं: ए) एक्स इसके प्रत्यक्ष और अप्रत्यक्ष प्रभावों को प्रभावित कर सकता है, जाहिर है, चूंकि अलग-अलग एक्स मान अलग-अलग कारण उत्पन्न करेंगे। बी) एक्स अपने प्रत्यक्ष और अप्रत्यक्ष कारणों को प्रभावित कर सकता है क्योंकि यदि हम एक प्रभाव का निरीक्षण करते हैं, तो हम नैदानिक ​​दृष्टिकोण में, कारणों के बारे में नई जानकारी प्राप्त कर सकते हैं। सी) एक्स अपने सभी प्रत्यक्ष और अप्रत्यक्ष कारणों के अन्य प्रभावों (खुद को छोड़कर) को प्रभावित करता है, क्योंकि एक्स के बारे में ज्ञान ने इन कारणों के बारे में हमारी मान्यताओं को बदल दिया है जो बदले में सभी प्रभावों को प्रभावित करता है। मैं इस पैटर्न के साथ ऐसे Causal Bayesian Networks की व्याख्या करने की कोशिश करता हूं। क्या यह शुरू करने के लिए सही है?
उफुक कैन बिचिस

3) यह ऐसा है जैसे मैं चर की स्वतंत्रता-निर्भरता व्यवहार को समझने के लिए एक सहज "सूचना प्रवाह" बनाने की कोशिश कर रहा हूं। इस पैटर्न के साथ मैं नहीं देख सकता कि एक स्वतंत्र कारण क्या है और यह वह जगह है जहां मैं फंस गया हूं। स्पष्ट रूप से मुझे कुछ याद है या मैं इस विचार पैटर्न के साथ पूरी तरह से गलत हो सकता हूं।
उफुक कैन बिचिस

मुझे लगता है कि मेरा मूल उत्तर थोड़ा भ्रामक था, क्योंकि मैंने बी और डी को 'कारण' (अब तय) के रूप में संदर्भित किया है। सूचना प्रवाह एक अवधारणा है जो अवलोकनों से जुड़ी होती है, न कि कार्यवाहक हस्तक्षेपों से। जैसा कि आप जानते हैं, दो रैंडम वैरिएबल स्वतंत्र होते हैं यदि एक का अवलोकन करना आपको दूसरे के बारे में कोई जानकारी नहीं देता है। आपके कथन अवलोकन और अनुमान को भ्रमित करते हैं। X का अवलोकन हमें उसके माता-पिता (कथन A), और उसके प्रत्यक्ष कारणों के बारे में हमारी जानकारी को समायोजित करने की अनुमति देता है, लेकिन यदि कोई v- संरचना पथ को अवरुद्ध कर रही है, तो हम उपरोक्त कारणों के लिए, अप्रत्यक्ष कारणों के लिए निष्कर्ष को समायोजित नहीं कर सकते।
फ्रैंकड

1

खैर, इस बिंदु तक, सब कुछ मेरे लिए ठीक है क्योंकि सूचना का प्रवाह सहज कारण प्रभाव वाले रिश्तों के अनुसार होता है। लेकिन मुझे इस योजना में तथाकथित "वी-स्ट्रक्चर" या "कोलाइडर्स" का विशेष व्यवहार नहीं मिला है।

फिर यहाँ दरार करने के लिए कठोर अखरोट v- संरचना है। मैं के बीच अंतर दर्शाने करना चाहते हैं एक चर एस केवल प्रभाव के अवलोकन पर वातानुकूलित की संभावना और अन्य चर डी जो एक ही स्थिति में एस के स्वतंत्र है के अवलोकन के प्रभाव एक काल्पनिक उदाहरण का उपयोग।

मान लीजिए कि कोई व्यक्ति कोर्स कर रहा है, रैखिक बीजगणित कहें। यदि वह इसे पास कर सकता है तो मुख्य रूप से परीक्षा की कठिनाई पर निर्भर करता है। चलो पी द्वारा पाठ्यक्रम पास करने की घटना को निरूपित करते हैं, 1 और 0 के रूप में गुजरते हैं अन्यथा; और डी के रूप में परीक्षा की कठिनाई, 1 के रूप में कठिन और 0. के रूप में आसान है और कुछ बकवास भी उसके प्रदर्शन या परिणाम पर प्रभाव डाल सकता है, मान लें कि विलक्षणता होती है और वह एक मशीन द्वारा ब्रेनवाश किया जाएगा और फिर निर्णय नहीं करेगा परीक्षा दो। हम एस द्वारा उस घटना को निरूपित करते हैं, और इसकी संभावना 0.0001 है। यह असंभव लगता है लेकिन परिभाषा के अनुसार इसकी संभावना शून्य नहीं होनी चाहिए।

इसलिए हमारे पास अब v- संरचना फॉर्म का एक ग्राफ है:

 D   S
  | |
 \| |/ 
   P  

पी(¬पी|एस)=0.999999पी(पी|एस)=0.000001

| d0   | d1      |      
|:-----|--------:|   
| 0.5  | 0.5     |  

| s0     | s1      |      
|:-------|--------:|   
| 0.9999 | 0.0001  |

| S     | D    | P(p0|S,D) | P(p1|S,D) |  
|:------|-----:|----------:|----------:|
|s0     | d0   |   0.20    |   0.80    |
|s0     | d1   |   0.90    |   0.10    |
|s1     | d0   |   0.999999|   0.000001|
|s1     | d1   |   0.999999|   0.000001| 

पी(एस|पी)पी(एस|पी,डी)

1) यदि हमें परिणाम नहीं पता है तो हम यह सुनिश्चित कर सकते हैं कि जिस विलक्षणता की संभावना है, उसे देखते हुए कोर्स आसान है।

पी(एस|¬डी)=पी(एस,पी|¬डी)+पी(एस,¬पी|¬डी)=पी(एस=1,पी=1,डी=0)पी(डी=0)+पी(एस=1,पी=0,डी=0)पी(डी=0)=पी(एस=1)पी(डी=0|एस=1)पी(पी=1|डी=0,एस=1)पी(डी=0)+पी(एस=1)पी(डी=0|एस=1)पी(पी=0|डी=0,एस=1)पी(डी=0)=पी(एस=1)पी(डी=0|एस=1)पी(डी=0)=पी(एस=1)पी(डी=0)पी(डी=0)=पी(एस=1)=0.0001

जैसा कि आप ऊपर देख सकते हैं कि परीक्षा पास होने या न होने से कोई फर्क नहीं पड़ता। जैसा आता है वैसा आता है। इसे पी पर एक सीमांत संभावना के रूप में देखा जा सकता है।

और हम इस संभावना को भी हल कर सकते हैं कि विलक्षणता दी जाती है कि छात्र परीक्षा में उत्तीर्ण नहीं होता है:

पी(एस,|¬पी)=पी(एस,¬पी)पी(¬पी)=पी(एस,¬पी,डी)+पी(एस,¬पी,¬डी)पी(¬पी)=पी(¬पी|एस,डी)पी(एस)पी(डी)+पी(¬पी|एस,¬डी)पी(एस)पी(¬डी)Σएस,डीपी(¬पी|एस,डी)पी(एस)पी(डी)=0.0001818

यह जानते हुए कि आदमी परीक्षा पास नहीं करता है हम अनुमान लगा सकते हैं कि वह एक मशीन द्वारा ब्रेनवाश किया जा सकता है 0.0001818 जो हम इसे नहीं जानते से थोड़ा बड़ा है।

2) लेकिन क्या होगा अगर हम जानते हैं कि आदमी परीक्षा में असफल हो गया और परीक्षा आसान है?

P(S,|¬P,¬D)=P(S=1,P=0,D=0)P(P=0,D=0)=P(P=0|S=1,D=0)P(S=1)P(D=0)P(P=0|S=1,D=0)P(S=1)P(D=0)+P(P=0|S=0,D=0)P(S=0)P(D=0)=0.999999×0.0001×0.50.2×0.9999×0.5+0.999999×0.0001×0.5=0.0004998

Lo and behold, the change is much bigger than we just know he doesn't plass the exam. Then we see that P(S|P)P(S|P,D) we can infer that SD|PI(P(P,S,D)) which means D can influence S via P.

May this detailed derivation be of hlep.

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.