एक व्युत्क्रम सहसंयोजक या सटीक मैट्रिक्स की व्याख्या कैसे करें?


64

मैं सोच रहा था कि क्या कोई मुझे कुछ संदर्भों की ओर संकेत कर सकता है, जो उलटा सहसंयोजक मैट्रिक्स के तत्वों की व्याख्या पर चर्चा करते हैं, जिसे एकाग्रता मैट्रिक्स या सटीक मैट्रिक्स के रूप में भी जाना जाता है।

मुझे कॉक्स और वर्मथ की मल्टीवीरेट डिपेंडेंसी तक पहुंच है , लेकिन मैं जो देख रहा हूं वह व्युत्क्रम मैट्रिक्स में प्रत्येक तत्व की व्याख्या है। विकिपीडिया बताता है : "सटीक मैट्रिक्स के तत्वों की आंशिक सहसंबंधों और आंशिक भिन्नताओं के संदर्भ में व्याख्या है," जो मुझे इस पृष्ठ पर ले जाती है। क्या रैखिक प्रतिगमन का उपयोग किए बिना एक व्याख्या है? IE, सहसंयोजक या ज्यामिति के संदर्भ में?


4
क्या आपने पूरा विकिपीडिया पृष्ठ पढ़ा है? सामान्य वितरण के लिए ज्यामिति और सशर्त स्वतंत्रता पर एक खंड है। आप इस पुस्तक में अधिक पा सकते हैं ।
NRH

@ एनआरएच ज्यामिति को आंशिक सहसंबंध पृष्ठ में समझाया गया है, जो मुझे यकीन नहीं है कि यह अभी तक एकाग्रता मैट्रिक्स से कैसे संबंधित है। क्या उस चित्रमय मॉडल पुस्तक में सांद्रता मैट्रिक्स के तत्वों की व्याख्या है? धन्यवाद!
विन्ह गुयेन

नीचे उत्तर देखें।
एनआरएच

जवाबों:


34

मूल रूप से दो बातें कही जानी हैं। पहला यह है कि यदि आप बहुभिन्नरूपी सामान्य वितरण (यहाँ 0 के साथ) के घनत्व को देखते हैं, तो यह जहाँ समानुपाती होता है कोविर्सियस मैट्रिक्स का विलोम है, जिसे सटीक भी कहा जाता है। यह मैट्रिक्स सकारात्मक निश्चित है और माध्यम से पर एक आंतरिक उत्पाद को परिभाषित करता है । परिणामी ज्यामिति, जो ऑर्थोगोनलिटी की अवधारणा को विशिष्ट अर्थ देती है और सामान्य वितरण से संबंधित मानदंडों को परिभाषित करती है, महत्वपूर्ण है, और उदाहरण के लिए, यह समझने के लिए कि एलडीए की ज्यामितीय सामग्री आपको दी गई ज्यामिति के प्रकाश में चीजों को देखने की आवश्यकता है। द्वारापी=Σ-1(एक्स,वाई)एक्सटीपीवाईआरपीपी

exp(12xTPx)
P=Σ1
(x,y)xTPy
RpP

दूसरी बात यह है कि आंशिक सहसंबंध को से सीधे पढ़ा जा सकता है , यहां देखें । वही विकिपीडिया पृष्ठ यह बताता है कि आंशिक सहसंबंध, और इस प्रकार की प्रविष्टियाँ , एक कोण से कोसाइन के संदर्भ में एक ज्यामितीय व्याख्या करती हैं। आंशिक सहसंबंधों के संदर्भ में और अधिक महत्वपूर्ण बात यह है कि, और बीच आंशिक सहसंबंध 0 है यदि और केवल यदि प्रविष्टि में शून्य है। सामान्य वितरण के लिए चर और तब सशर्त रूप से स्वतंत्र होते हैंP X i X j i , j P X i X jPPXiXji,jPXiXjअन्य सभी चर दिए गए। यह स्टीफंस की किताब है, जिसे मैंने ऊपर टिप्पणी में संदर्भित किया है, सभी के बारे में है। सशर्त स्वतंत्रता और ग्राफिकल मॉडल। इसका सामान्य वितरण का एक पूर्ण इलाज है, लेकिन इसका पालन करना इतना आसान नहीं हो सकता है।


1
क्षमा करें, मैं आंशिक सहसंबंध के लिए विकिपीडिया सूत्र से थोड़ा भ्रमित हूं; मैंने कई कार्यान्वयन देखे हैं (माइनस साइन के साथ)। क्या आप सुनिश्चित हैं कि विकिपीडिया सूत्र सही है? pijpiipjj
शैलजॉन

1
@ Sh3ljohn, आप पूरी तरह से सही हैं। विकिपीडिया के सूत्र में एक माइनस गायब है।
NRH

क्या पहला उत्तर वास्तव में फिशर जानकारी के बारे में सटीक मैट्रिक्स की तुलना में अधिक बात नहीं कर रहा है? मेरा मतलब है कि वे वास्तव में विशेष / अच्छा गाऊसी मामले में मेल खाते हैं, लेकिन वे आम तौर पर मेल नहीं खाते हैं। स्पष्ट रूप से दो अवधारणाएँ संबंधित हैं (क्रैमर-राव लोअर बाउंड, एमएलई का एसिम्प्टोटिक वितरण, आदि) लेकिन यह उन्हें भ्रमित करने में मददगार नहीं लगता है (विशेषकर मैं इस सवाल पर आया था कि फिशर सूचना और अंतर को कैसे पहचानें व्युत्क्रम सहसंबंध मैट्रिक्स)।
Chill2Macht

24

मुझे एनआरएच के बिंदु को स्पष्ट करने के लिए यह संभाव्य चित्रमय मॉडल पसंद है कि आंशिक सहसंबंध शून्य है और केवल अगर एक्स वाई जेड जेड से सशर्त रूप से स्वतंत्र है, इस धारणा के साथ कि सभी शामिल चर बहुभिन्नरूपी गॉसियन हैं (संपत्ति सामान्य मामले में नहीं है) :

यहाँ छवि विवरण दर्ज करें

( गाऊसी यादृच्छिक चर हैं; T और k की उपेक्षा करें)yi

स्रोत: गॉसियन प्रोसेस बेसिक्स पर डेविड मैकके की बात , 25 वें मिनट।


12

आंशिक सहसंबंधों के आधार पर व्याख्या संभवतः सबसे सांख्यिकीय रूप से उपयोगी है, क्योंकि यह सभी बहुभिन्नरूपी वितरणों पर लागू होती है। बहुभिन्नरूपी सामान्य वितरण के विशेष मामले में, शून्य आंशिक सहसंबंध सशर्त स्वतंत्रता से मेल खाता है।

आप इस व्याख्या को सहसंयोजक मैट्रिक्स की प्रविष्टियों के संदर्भ में एकाग्रता मैट्रिक्स की प्रविष्टियों के लिए एक सूत्र प्राप्त करने के लिए Schur पूरक का उपयोग करके प्राप्त कर सकते हैं। Http://en.wikipedia.org/wiki/Schur_complement#Applications_to_probability_theory_and_statistics देखें


11

Covariance मैट्रिक्स सभी वेरिएबल्स के बीच संबंध का प्रतिनिधित्व कर सकता है जबकि व्युत्क्रम covariance, अपने पड़ोसी के साथ तत्व के संबंध को जगाता है (जैसा कि विकिपीडिया ने आंशिक / जोड़ी वार संबंध कहा है)।

मैं निम्नलिखित उदाहरण यहाँ से 24:10 में उधार लेता हूं , कल्पना करता हूं कि 5 द्रव्यमान एक साथ जुड़े हुए हैं और 6 स्प्रिंग्स के साथ चारों ओर स्वर हैं, कोवरियन मैट्रिक्स में सभी द्रव्यमानों का सहसंबंध होगा, अगर एक सही हो जाता है, तो अन्य भी सही हो सकते हैं। लेकिन उलटा सहसंयोजक मैट्रिक्स उन द्रव्यमानों के संबंध को जूते देता है जो एक ही वसंत (पड़ोसी) से जुड़े होते हैं और इसमें कई शून्य होते हैं और इसके आवश्यक सकारात्मक नहीं होते हैं।


1
वीडियो में यह कहाँ बताया गया है? यह एक घंटा लंबा है। धन्यवाद!
विन्ह गुयेन

आप सही हैं, 24:10 को, मुझे लगता है कि
कोव

5

बार-शालोम और फोर्टमैन (1988) कलमन फ़िल्टरिंग के संदर्भ में उलटे सहसंयोजक का उल्लेख करते हैं:

... [टी] यहाँ उलटा सहसंयोजक (या सूचना मैट्रिक्स ) के लिए एक पुनरावृत्ति है

P1(k+1|k+1)=P1(k+1|k)+H(k+1)R1(k+1)H(k+1)

... दरअसल, भविष्यवाणी और अद्यतन समीकरणों का एक पूरा सेट, जिसे सूचना फ़िल्टर [8, 29, 142] के रूप में जाना जाता है, को व्युत्क्रम सहसंयोजक और एक परिवर्तित राज्य वेक्टर रूप में विकसित किया जा सकता है। ।P1x^

पुस्तक को Google पर अनुक्रमित किया गया है ।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.