एक 3x3 सहसंबंध मैट्रिक्स को पूरा करना: दिए गए तीन में से दो गुणांक


20

यह सवाल मैंने एक इंटरव्यू में पूछा था।

कहते हैं कि चलो हम फार्म की एक संबंध मैट्रिक्स है

[10.60.80.61γ0.8γ1]

मुझे इस सहसंबंध मैट्रिक्स को देखते हुए गामा का मान खोजने के लिए कहा गया था।
मैंने सोचा था कि मैं eigenvalues ​​के साथ कुछ कर सकता हूं, क्योंकि वे 0. से अधिक या बराबर होना चाहिए (मैट्रिक्स सकारात्मक सकारात्मक होना चाहिए) - लेकिन मुझे नहीं लगता कि इस दृष्टिकोण से उत्तर मिलेगा। मुझे एक तरकीब याद आ रही है।

क्या आप कृपया उसी के लिए हल करने के लिए एक संकेत प्रदान कर सकते हैं?


टिप्पणियाँ विस्तारित चर्चा के लिए नहीं हैं; इस वार्तालाप को बातचीत में स्थानांतरित कर दिया गया है ।
whuber

1
इस साइट की एक खोज ने संबंधित सूत्रों में से एक (कई) थ्रेड्स के लिए सीधे नेतृत्व किया: आंकड़े . stackexchange.com/questions/5747फेलिक्स एस के जवाब में कुछ उपयोगी प्लॉट भी हैं ।
whuber

जवाबों:


21

हम पहले से ही जानते हैं γ के बीच घिरा हुआ है [1,1] सहसंबंध मैट्रिक्स सकारात्मक semidefinite होना चाहिए और इसलिए इसके प्रमुख नाबालिगों गैर नकारात्मक होने चाहिए

इस प्रकार,

1(1γ2)0.6(0.60.8γ)+0.8(0.6γ0.8)0γ2+0.96γ0γ(γ0.96)0 and 1γ10γ0.96


बहुत बढ़िया जवाब। मैं निम्नलिखित जोड़ूंगा: गामा प्राप्त करने का लोकप्रिय तरीका गामा को खोजने का प्रयास करना है जो उपरोक्त समीकरणों को हल करते समय संभव सबसे छोटे परमाणु मानदंड (उर्फ की-फैन मानक) के सहसंबंध मैट्रिक्स की ओर ले जाएगा। अधिक जानकारी के लिए, "मैट्रिक्स पूर्णता," "कम्प्रेसिव सेंसिंग," देखें या इस रिपोर्ट को विषय bit.ly/2iwY1nW पर देखें
मुस्तफा एस आइसा

1
इसके प्रमाण के लिए, आपको दूसरी दिशा में एक परिणाम की आवश्यकता है: यदि सभी nontrivial अग्रणी नाबालिग हैं और मैट्रिक्स में निर्धारक 0 है , तो मैट्रिक्स सकारात्मक अर्धचालक है। >00
फेडेरिको पोलोनी

10

यहाँ एक सरल (और शायद अधिक सहज) समाधान है:

एक सार सदिश स्थान पर आंतरिक उत्पाद के रूप में सहसंयोजक के बारे में सोचें । फिर, सहसंबंध मैट्रिक्स में प्रविष्टियां के लिए वैक्टर v 1 , v 2 , v 3 हैं , जहां कोण ब्रैकेट i v i , v j the , v i और v j के बीच के कोण को दर्शाता है।cosvi,vjv1v2v3vi,vjvivj

यह कल्पना करने के लिए कि कठिन नहीं है से घिरा है | वी 1 , वी 2± वी 1 , वी 3| । (अपने कोज्या पर बाध्य γ ) इस प्रकार है क्योंकि [वी 1 , वी 2± वी 1 , वी 3] । मूल त्रिकोणमिति तब trig [ 0.6 × देता हैv2,v3|v1,v2±v1,v3|γcos[v1,v2±v1,v3]γ[0.6×0.80.6×0.8,0.6×0.8+0.6×0.8]=[0,0.96]

संपादित करें: ध्यान दें कि अंतिम पंक्ति में है वास्तव में क्योंकि वी 1 , वी 2क्योंकि वी 1 , वी 3पाप वी 1 , वी 3पाप वी 1 , वी 2 Appearance - 0.6 और 0.8 की दूसरी उपस्थिति संयोग से 0.6 2 + 0.8 2 = 1 के लिए होती है0.6×0.80.6×0.8cosv1,v2cosv1,v3sinv1,v3sinv1,v20.62+0.82=1


1
+1, एक वैध ज्यामितीय तर्क (यह कहते हुए, मैंने आपकी गणना की जांच नहीं की)। यह वही है जो मैंने प्रश्न में टिप्पणियों में प्रस्तावित किया है (दुर्भाग्य से, सभी टिप्पणियां मॉडरेटर द्वारा चैट में स्थानांतरित की गई थीं, ऊपर दिए गए लिंक देखें)।
ttnphns

मुझे लगता है कि आपने "सिद्ध" किया है कि सभी सहसंबंध गैर-नकारात्मक होने चाहिए, क्योंकि ऐसा प्रतीत होता है कि आपकी गणना हमेशा निचली सीमा के लिए शून्य देगी। अगर ऐसा नहीं है, तो क्या आप इस बारे में विस्तार से बता सकते हैं कि आपकी गणना सामान्य रूप से कैसे काम करती है? समझ में नहीं आता या शायद - - मैं वास्तव में नहीं विश्वास करते हैं, अपने लिए बाध्य क्योंकि तीन या अधिक आयामों में आप हमेशा एक पा सकते हैं जो दोनों के लिए वी 1वी 2 = v 1वी 3 = 0 और उसके बाद अपने बाध्य तात्पर्य वी 2वी 3 हमेशा शून्य है! (cc @ttnphns)v1v1v2=v1v3=0v2v3
व्हीबर

@whuber: भ्रम के बारे में क्षमा करें। गणना हमेशा निचली सीमा के लिए शून्य नहीं देती है। मैंने अपना उत्तर संशोधित कर दिया है।
यंग

आप मेरी अंतिम चिंता का जवाब कैसे देंगे? ऐसा लगता है कि आपकी सीमाएँ गलत हैं।
whuber

@whuber: आपके मामले में, ⟨v1, v2⟨ = 1v1, v3⟩ = hence / 2, इसलिए बाध्य | ⟨v1, v2⟩ ± ⟨v1, v3⟩ | उम्मीद के मुताबिक [0, [] है। बाध्य cos Thev1, v2⟩cos⟨v1, v3⟨sin1v1, v3⟩sin vv1, v2⟩ γ पर भी काम करता है [-1, 1]।
यंग

4

यहाँ जवाब के लिए अपनी प्रारंभिक टिप्पणी में मेरा क्या मतलब है और मुझे जो भी लगता है कि @yangle इस बारे में बोल सकता है (हालांकि मैंने उनकी गणना का पालन / जांच नहीं की थी)।

"मैट्रिक्स सकारात्मक सकारात्मक होना चाहिए" का तात्पर्य है कि चर वैक्टर यूक्लिडियन अंतरिक्ष में एक गुच्छा हैं। सहसंबंध मैट्रिक्स के मामले सहप्रसरण मैट्रिक्स की तुलना में आसान है, क्योंकि तीन वेक्टर लंबाई 1. कल्पना कीजिए 3 इकाई वैक्टर XYZ और याद रखें कि होने के लिए तय कर रहे हैं है कोण की कोज्या । तो, क्योंकि α = आर एक्स y = 0.6 , और क्योंकि β = आर वाई जेड = 0.8Cos γ = r x z की सीमाएँ क्या हो सकती हैंrcosα=rxy=0.6cosβ=ryz=0.8cosγ=rxz? वह सहसंबंध Z के बारे में परिभाषित किसी भी मान पर ले सकता है जो Y के बारे में परिचालित करता है ( इसके साथ कोण रखते हुए ):ryz=0.8

enter image description here

जैसा कि यह घूमता है, दो स्थितिएं एक्सट्रीम wrt X के रूप में उल्लेखनीय हैं, दोनों तब हैं जब Z प्लेन XY में गिरता है। एक एक्स और वाई के बीच है, और दूसरा वाई के विपरीत तरफ है। ये नीले और लाल वैक्टर द्वारा दिखाए जाते हैं। इन दोनों स्थितियों में बिल्कुल विन्यास XYZ (सहसंबंध मैट्रिक्स) विलक्षण है। और ये न्यूनतम और अधिकतम कोण हैं (इसलिए सहसंबंध) Z, wr X को प्राप्त कर सकता है।

समतल पर कोणों के योग या अंतर की गणना करने के लिए त्रिकोणमितीय सूत्र को चुनना , हमारे पास है:

cosγ=rxyryz(1rxy2)(1ryz2)=[0,0.96] as the bounds.

This geometric view is just another (and a specific and simpler in 3D case) look on what @rightskewed expressed in algebraic terms (minors etc.).


If X,Y,Z are random variables, how do you map them to vectors in 3d space (They can only be vectors in 1d space). Also if the RV's are Nx1, then they will be vectors in N dimensional space?
novice

@novice Yes, they are initially 3 vectors in Nd space, but only 3 dimensions are nonredundant. Please follow the 2nd link in the answer and read further reference there to subject space where it is explained.
ttnphns

4

Playing around with principal minors may be fine on 3 by 3 or maybe 4 by 4 problems, but runs out of gas and numerical stability in higher dimensions.

For a single "free" parameter problem such as this, it's easy to see that that the set of all values making the matrix psd will be a single interval. Therefore, it is sufficient to find the minimum and maximum such values. This can easily be accomplished by numerically solving a pair of linear SemiDefinite Programming (SDP) problems:

  1. minimize γ subject to matrix is psd.
  2. maximize γ subject to matrix is psd.

For example, these problems can be formulated and numerically solved using YALMIP under MATLAB.

  1. gamma = sdpvar; A = [1 .6 .8;.6 1 gamma;.8 gamma 1]; optimize(A >= 0, gamma)
  2. optimize(A >= 0,-gamma)

Fast, easy, and reliable.

BTW, if the smarty pants interviewer asking the question doesn't know that SemiDefinite Programming, which is well-developed and has sophisticated and easy to use numerical optimizers for reliably solving practical problems, can be used to solve this problem, and many much more difficult variants, tell him/her that this is no longer 1870, and it's time to take advantage of modern computational developments.


4

Let us consider the following convex set

{(x,y,z)R3:[1xyx1zyz1]O3}

which is a spectrahedron named 3-dimensional elliptope. Here's a depiction of this elliptope

enter image description here

Intersecting this elliptope with the planes defined by x=0.6 and by y=0.8, we obtain a line segment whose endpoints are colored in yellow

enter image description here

The boundary of the elliptope is a cubic surface defined by

det[1xyx1zyz1]=1+2xyzx2y2z2=0

If x=0.6 and y=0.8, then the cubic equation above boils down to the quadratic equation

0.96zz2=z(0.96z)=0

Thus, the intersection of the elliptope with the two planes is the line segment parametrized by

{(0.6,0.8,t)0t0.96}

1

Every positive semi-definite matrix is a correlation/covariance matrix (and vice versa).

To see this, start with a positive semi-definite matrix A and take its eigen-decomposition (which exists by the spectral theorm, since A is symmetric) A=UDUT where U is a matrix of orthonormal eigenvectors and D is a diagonal matrix with eigen values on the diagonal. Then, let B=UD1/2UT where D1/2 is a diagonal matrix with the square root of eignevalues on the diagonal.

Then, take a vector with i.i.d. mean zero and variance 1 entries, x and note that Bx also has mean zero, and covariance (and correlation) matrix A.

Now, to see every correlation/covariance matrix is positive semi-definite is simple: Let R=E[xxT] be a correlation matrix. Then, R=RT is easy to see, and aTRa=E[(aTx)2]0 so the Rayleigh quotient is non-negative for any non-zero a so R is positive semi-definite.

Now, noting that a symmetric matrix is positive semi-definite if and only if its eigenvalues are non-negative, we see that your original approach would work: calculate the characteristic polynomial, look at its roots to see if they are non-negative. Note that testing for positive definiteness is easy with Sylvester's Criterion (as mentioned in another answer's comment; a matrix is positive definite if and only if the principal minors all have positive determinant); there are extensions for semidefinite (all minors have non-negative determinant), but you have to check 2n minors in this case, versus just n for positive definite.

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.