यह है वास्तव में कुछ। यह पता लगाने के लिए, हमें यह जांचने की आवश्यकता है कि हम सहसंबंध के बारे में क्या जानते हैं।
सदिश-मूल्यवान यादृच्छिक चर X = ( X 1 , X 2 , … , X p ) का सहसंबंध मैट्रिक्सX=(X1,X2,…,Xp) का सहसंबंध मैट्रिक्स के मानकीकृत संस्करण का विचरण-सहसंयोजक मैट्रिक्स, या बस "विचरण" है X। यही है, प्रत्येक Xi को इसके पुन: व्यवस्थित, पुनर्विकसित संस्करण द्वारा प्रतिस्थापित किया जाता है।
Xi और Xj का सहसंयोजक उनके केंद्रित संस्करणों के उत्पाद की अपेक्षा है। यही कारण है, लेखन X′i=Xi−E[Xi] और X′j=Xj−E[Xj] , हमारे पास है
Cov(Xi,Xj)=E[X′iX′j].
का विचरण , जिसे मैं वार ( एक्स ) लिखूंगा , एक भी संख्या नहीं है। यह मानों की सरणी है Var ( X ) i j = Cov ( X i , X j ) ।XVar(X)
Var(X)ij=Cov(Xi,Xj).
इच्छित सामान्यीकरण के लिए सहसंयोजक के सोचने का तरीका यह है कि इसे एक टेंसर माना जाए । मतलब है कि यह मात्रा की एक पूरी संग्रह है , द्वारा अनुक्रमित मैं और जे से लेकर 1 के माध्यम से पी , जिनके मान एक विशेष रूप से सरल उम्मीद के मुताबिक जिस तरह से जब में बदल एक्स एक रेखीय परिवर्तन से गुजरता है। विशेष रूप से, Y = ( Y 1 , Y 2 ,vijij1pX को एक अन्य वेक्टर-मूल्यवान यादृच्छिक चर द्वारा परिभाषित किया जाना चाहिएY=(Y1,Y2,…,Yq)
Yi=∑j=1pajiXj.
स्थिरांक (मैंऔरजेहैंअनुक्रमित-जेएक शक्ति नहीं है) एक फार्मक्ष×पीajiijjq×p सरणी ,j=1,…,pऔरiA=(aji)j=1,…,p । अपेक्षा की रैखिकता का अर्थ हैi=1,…,q
Var(Y)ij=∑akialjVar(X)kl.
मैट्रिक्स संकेतन में,
Var(Y)=AVar(X)A′.
वार के सभी घटकवास्तव मेंध्रुवीकरण पहचान केकारण अविभाज्य संस्करण हैंVar(X)
4Cov(Xi,Xj)=Var(Xi+Xj)−Var(Xi−Xj).
यह हमें बताता है कि यदि आप अनइवरिएट रैंडम वैरिएबल्स के वैरिएंस को समझते हैं, तो आप पहले से ही बायवेरिएट वैरिएबल के कॉवरियन्स को समझते हैं: वे वेरिएंस के "सिर्फ" लीनियर कॉम्बिनेशन हैं।
प्रश्न में अभिव्यक्ति पूरी तरह अनुरूप है: चर को ( 1 ) के रूप में मानकीकृत किया गया है । हम यह समझ सकते हैं कि किसी चर के लिए इसका क्या अर्थ है , यह मानकीकृत है या नहीं, यह विचार करके इसका प्रतिनिधित्व करता है । हम एक की जगह होता एक्स मैं अपने केंद्रित संस्करण के द्वारा, के रूप में (Xi(1)Xi , औरतीनइंडेक्स वालीमात्राएँ बनातेहैं,(2)
μ3(X)ijk=E[X′iX′jX′k].
ये डिग्री 3 के केंद्रीय (बहुभिन्नरूपी) क्षण हैं । के रूप में , वे एक टेंसर बनाते हैं: जब वाई = ए एक्स , तब(4)Y=AX
μ3(Y)ijk=∑l,m,naliamjankμ3(X)lmn.
इस ट्रिपल योग में अनुक्रमणिका पूर्णांक के सभी संयोजनों पर से p तक होती है ।1p
ध्रुवीकरण पहचान का एनालॉग है
24μ3(X)ijk=μ3(Xi+Xj+Xk)−μ3(Xi−Xj+Xk)−μ3(Xi+Xj−Xk)+μ3(Xi−Xj−Xk).
दाहिने हाथ की ओर, (अविभाजित) केंद्रीय तीसरे क्षण को संदर्भित करता है: केंद्र चर के घन का अपेक्षित मान। जब चर को मानकीकृत किया जाता है, तो इस क्षण को आमतौर पर तिरछा कहा जाता है । तदनुसार, हम के बारे में सोच सकता है μ 3 ( एक्स ) होने के रूप में मल्टीवेरिएट तिरछापन की एक्स । यह पद तीन (है कि तीन सूचकांक के साथ है,) की एक टेन्सर जिनके मान विभिन्न रकम और के अंतरों के skewnesses के रैखिक संयोजन कर रहे हैं एक्स मैं । यदि हम व्याख्याओं की तलाश कर रहे थे, तो, हम इन घटकों को पी में मापने के रूप में सोचेंगेμ3μ3(X)XXipआयाम जो भी तिरछापन एक आयाम में माप रहा है। कई मामलों में,
पहले क्षण वितरण के स्थान को मापते हैं ;
दूसरे क्षण (विचरण-सह-संवेदी मैट्रिक्स) इसके प्रसार को मापते हैं ;
मानकीकृत दूसरे क्षण (सहसंबंध) यह दर्शाते हैं कि प्रसार -Dimensional स्थान में कैसे भिन्न होता है; तथाp
इसके प्रसार के सापेक्ष वितरण के आकार को मापने के लिए मानकीकृत तीसरे और चौथे क्षणों को लिया जाता है ।
एक बहुआयामी "आकार" का क्या अर्थ हो सकता है, इस पर विस्तार से देखने के लिए, हम किसी भी बहुभिन्न वितरण को मूल और सभी दिशाओं में समान रूप से स्थित मानक संस्करण में कम करने के लिए एक तंत्र के रूप में पीसीए को समझ सकते हैं। पीसीए के प्रदर्शन के बाद, फिर, वितरण के बहुआयामी आकार का सबसे सरल संकेतक प्रदान करेगा। ये विचार डेटा के साथ-साथ यादृच्छिक चर पर भी समान रूप से लागू होते हैं, क्योंकि डेटा का हमेशा उनके अनुभवजन्य वितरण के संदर्भ में विश्लेषण किया जा सकता है।μ3
संदर्भ
एलन स्टुअर्ट और जे कीथ ऑर्ड, केंडल के सांख्यिकी पांचवें संस्करण का उन्नत सिद्धांत , खंड 1: वितरण सिद्धांत ; अध्याय 3, क्षण और संयोग । ऑक्सफोर्ड यूनिवर्सिटी प्रेस (1987)।
परिशिष्ट: ध्रुवीकरण पहचान का प्रमाण
चलो बीजीय चर हो। इन सभी n को जोड़ने और घटाने के 2 n तरीके हैं। जब हम इन sums- और अंतरों में से प्रत्येक को n वें शक्ति तक बढ़ाते हैं , तो उन परिणामों में से प्रत्येक के लिए एक उपयुक्त चिह्न चुनें, और उन्हें जोड़ दें, हमें x 1 x 2 n x n का गुणनफल मिलेगाx1,…,xn2nnnthx1x2⋯xn ।
अधिक औपचारिक रूप से, चलो सब से सेट हो n की -tuples ± 1 , ताकि किसी भी तत्व रों ∈ एस एक वेक्टर है रों = ( रों 1 , एस 2 , ... , एस एन ) जिसका गुणांक सब कर रहे हैं ± 1 । दावा हैS={1,−1}nn±1s∈Ss=(s1,s2,…,sn)±1
2nn!x1x2⋯xn=∑s∈Ss1s2⋯sn(s1x1+s2x2+⋯+snxn)n.(1)
xi11xi22⋯xinnijn
(ni1,i2,…,in)si11si22⋯sinn.
(1), the coefficients involving xi11 appear in pairs where one of each pair involves the case s1=1, with coefficient proportional to s1 times si11, equal to 1, and the other of each pair involves the case s1=−1, with coefficient proportional to −1 times (−1)i1, equal to (−1)i1+1. They cancel in the sum whenever i1+1 is odd. The same argument applies to i2,…,in. Consequently, the only monomials that occur with nonzero coefficients must have odd powers of all the xi. The only such monomial is x1x2⋯xn. It appears with coefficient (n1,1,…,1)=n! in all 2n terms of the sum. Consequently its coefficient is 2nn!, QED.
We need take only half of each pair associated with x1: that is, we can restrict the right hand side of (1) to the terms with s1=1 and halve the coefficient on the left hand side to 2n−1n! . That gives precisely the two versions of the Polarization Identity quoted in this answer for the cases n=2 and n=3: 22−12!=4 and 23−13!=24.
Of course the Polarization Identity for algebraic variables immediately implies it for random variables: let each xi be a random variable Xi. Take expectations of both sides. The result follows by linearity of expectation.