सामान्य उपचार
हमें यह याद रखना चाहिए कि जहां हम यादृच्छिक चर पर शर्त लगाते हैं, वह गलत है, हालांकि अर्थ के रूप में, संकेतन। वास्तव में हम इन यादृच्छिक चर उत्पन्न करने वाले सिग्मा-बीजगणित पर शर्त लगाते हैं। दूसरे शब्दों में E[Y∣X] मतलब करने के लिए है E[Y∣σ(X)] । यह टिप्पणी "अनौपचारिक उपचार" में जगह से बाहर लग सकती है, लेकिन यह हमें याद दिलाती है कि हमारी कंडीशनिंग इकाइयां सेट का संग्रह हैं (और जब हम एक एकल मूल्य पर शर्त लगाते हैं, तो यह एक सिंगलटन सेट है)। और इन सेटों में क्या है? उनमें जानकारी होती हैजिसके साथ रैंडम वैरिएबल के संभावित मान Xहमें इस बात की आपूर्ति करते हैं कि की प्राप्ति के साथ क्या हो सकता है Y।
सूचना की अवधारणा में लाना, हमें बहुत सहज तरीके से Iterated Expectations (कभी-कभी "टॉवर संपत्ति" कहा जाता है) के कानून के बारे में सोचने (और उपयोग) की अनुमति देता है:
दो यादृच्छिक चर द्वारा उत्पन्न सिग्मा-बीजगणित, कम से कम उतना ही है : एक यादृच्छिक चर द्वारा उत्पन्न कि के रूप में बड़े σ(X)⊆σ(X,Z) उचित सेट सैद्धांतिक अर्थ में। तो जानकारी के बारे में Y में निहित σ(X,Z) में संबंधित जानकारी के रूप में महान के रूप में कम से कम हैσ(X) ।
अब, सांकेतिक व्यंग्य के रूप में, सेटσ(X)≡Ix औरσ(X,Z)≡Ixz । फिर जिस समीकरण को हम देख रहे हैं उसका एलएचएस लिखा जा सकता है
मौखिक रूप से ऊपर अभिव्यक्ति हम बताते: "की {की उम्मीद मूल्य उम्मीद क्या है Y दी गई जानकारी मैं x z } यह देखते हुए कि हम उपलब्ध जानकारी नहीं है मैं x केवल?"
E[E(Y|Ixz)|Ix]
YIxzIx
क्या हम किसी तरह " " को ध्यान में रख सकते हैं ? नहीं - हम केवल I x जानते हैं । लेकिन अगर हम अपने पास मौजूद उस चीज़ का उपयोग करते हैं (जैसा कि हम जिस अभिव्यक्ति को हल करना चाहते हैं, उसके द्वारा बाध्य हैं), तो हम अनिवार्य रूप से वाई के बारे में उम्मीद ऑपरेटर के तहत बातें कर रहे हैं , अर्थात हम कहते हैं " ई ( वाई x आई एक्स ) ", और नहीं - हमने अभी-अभी अपनी जानकारी समाप्त की है।IxzIxYE(Y∣Ix)
इसलिए
E[E(Y|Ixz)|Ix]=E(Y|Ix)
अगर कोई और नहीं करता है, तो मैं औपचारिक उपचार के लिए लौटूंगा।
(थोड़ा और) औपचारिक उपचार
आइए देखें कि कैसे दो बहुत महत्वपूर्ण किताबें हैं प्रायिकता सिद्धांत, पी। बिलिंग्सले की संभावना और माप (3 डी एड।-1995) और डी। विलियम्स "प्रोबेलबिलिटी विद मार्टिंगेल्स" (1991), "लॉ ऑफ़ आईटर एक्सपेक्टेशंस" को साबित करने के मामले को मानते हैं:
बिलिंग्सले ने प्रमाण के लिए ठीक तीन पंक्तियों को समर्पित किया है। विलियम्स, और मैं बोली, कहते हैं
"(टॉवर संपत्ति) वस्तुतः सशर्त अपेक्षा की परिभाषा से तत्काल है"।
यह पाठ की एक पंक्ति है। बिलिंग्सले का प्रमाण कम अपारदर्शी नहीं है।
वे निश्चित रूप से सही हैं: सशर्त अपेक्षा की यह महत्वपूर्ण और बहुत सहज संपत्ति अनिवार्य रूप से सीधे (और लगभग तुरंत) अपनी परिभाषा से प्राप्त करती है-केवल समस्या यह है, मुझे संदेह है कि यह परिभाषा आमतौर पर नहीं सिखाई जाती है, या कम से कम हाइलाइट नहीं की जाती है, बाहर की संभावना या सिद्धांतिक हलकों को मापें। लेकिन (लगभग) तीन पंक्तियों को दिखाने के लिए जो कानून की प्रत्याशित अपेक्षाएं रखती हैं, हमें सशर्त अपेक्षा की परिभाषा की आवश्यकता है, या बल्कि, इसकी परिभाषित संपत्ति ।
एक प्रायिकता स्थान और एक पूर्णांक रैंडम वेरिएबल Y को दें । चलो जी हो एक उप σ की -algebra एफ , जी ⊆ एफ । फिर एक फ़ंक्शन W मौजूद है जो G -measurable है, पूर्णांक है और (यह परिभाषित करने वाली संपत्ति है)(Ω,F,P)YGσFG⊆FWG
E(W⋅1G)=E(Y⋅1G)∀G∈G[1]
जहाँ सेट G का सूचक कार्य है । हम कहते हैं कि डब्ल्यू की सशर्त उम्मीद ( "का एक संस्करण") है Y दिया जी , और हम लिखने
डब्ल्यू = ई ( Y | जी )1GGWYG
यहाँ ध्यान दें करने के लिए महत्वपूर्ण विस्तार कि सशर्त उम्मीद, एक ही उम्मीद मूल्य के रूप में है Y , करता है न सिर्फ पूरे से अधिक जी ,लेकिन हर सबसेट में जी की जी ।W=E(Y∣G)a.s.
YGGG
(मैं अब पेश करने की कोशिश करूँगा कि कैसे टॉवर संपत्ति सशर्त अपेक्षा की परिभाषा से निकलती है)।
एक G -measurable यादृच्छिक चर है। तो विचार करें कुछ उप σ -algebra, का कहना है कि एच ⊆ जी । फिर जी ∈ एच ⇒ जी ∈ जी । तो, पहले की तरह एक अनुरूप तरीके से, हमें W दी गई H की सशर्त अपेक्षा है, U = E ( W analog H ) कहेंWGσH⊆GG∈H⇒G∈GWHयह विशेषता है U=E(W∣H)a.s.
E(U⋅1G)=E(W⋅1G)∀G∈H[2]
के बाद से , समीकरण [ 1 ] और [ 2 ] हमें देने केH⊆G[1][2]
E(U⋅1G)=E(Y⋅1G)∀G∈H[3]
लेकिन यह दी गई H की सशर्त अपेक्षा की परिभाषित संपत्ति है । YHइसलिए हम लिखने के लिए हकदार हैं
जब से हम निर्माण से भी यू = ई ( डब्ल्यू | एच ) = ई ( ई [ Y | जी ] | एच ) - आठ लाइनों में, हम बस टॉवर संपत्ति, या पुनरावृत्त के कानून उम्मीदें के सामान्य रूप से साबित कर दिया।U=E(Y∣H)a.s.
U=E(W∣H)=E(E[Y∣G]∣H)