क्या इसका मतलब है कि कोवरियन को कम करना?


11

यह मानते हुए कि मेरे पास दो गैर-स्वतंत्र यादृच्छिक चर हैं और मैं बहुत अधिक "सिग्नल" खोए बिना यथासंभव उनके बीच सहसंबंध कम करना चाहता हूं, क्या इसका मतलब मदद करना है? मैं कहीं पढ़ता हूं कि इसका मतलब है कि एक महत्वपूर्ण कारक द्वारा केंद्रसंबंध कम हो जाता है, इसलिए मैं सोच रहा हूं कि इसे सहसंयोजक के लिए भी करना चाहिए।

जवाबों:


30

यदि और यादृच्छिक चर हैं और और स्थिरांक हैं, तो केंद्र विशेष स्थिति = a -E [X] और b = -E [Y] है , इसलिए केंद्रित करना सहसंयोजक को प्रभावित नहीं करता है।XYab

Cov(X+a,Y+b)=E[(X+aE[X+a])(Y+bE[Y+b])]=E[(X+aE[X]E[])(Y+-[Y]-[])]=[(एक्स+-[एक्स]-)(Y+-[Y]-)]=[(एक्स-[एक्स])(Y-[Y])]=cov(एक्स,Y)
=-[एक्स]=-[Y]


इसके अलावा, चूंकि सहसंबंध को रूप में परिभाषित किया गया है हम देख सकते हैं कि इसलिए विशेष रूप से, सहसंबंध या तो केंद्र द्वारा प्रभावित नहीं होता है।

Corr(एक्स,Y)=cov(एक्स,Y)वार(एक्स)वार(Y),
Corr(एक्स+,Y+)=cov(एक्स+,Y+)वार(एक्स+)वार(Y+)=cov(एक्स,Y)वार(एक्स)वार(Y),


वह कहानी का जनसंख्या संस्करण था। नमूना संस्करण समान है: यदि हम हमारे सहवास के बीच अनुमान के रूप में। और एक युग्मित नमूने से , तब

cov^(एक्स,Y)=1nΣमैं=1n(एक्समैं-1nΣजे=1nएक्सजे)(Yमैं-1nΣजे=1nYजे)
एक्सY(X1,Y1),,(Xn,Yn)
Cov^(X+a,Y+b)=1ni=1n(Xi+a1nj=1n(Xj+a))(Yi+b1nj=1n(Yj+b))=1ni=1n(Xi+a1nj=1nXjnna)(Yi+b1nj=1nYjnnb)=1ni=1n(Xi1nj=1nXj)(Yi1nj=1nYj)=Cov^(X,Y)
लिए किसी भी और ।ab


विस्तृत उत्तर के लिए धन्यवाद। इसका मतलब यह है कि नमूना covariance के लिए नमूना आकार किसी भी प्रभाव नहीं है? यानी नमूना आकार को कम करने से नमूना सहसंयोजक कम नहीं होता है?
lvdp

3
@lvdp शायद एक अलग प्रश्न होना चाहिए।
संचित

एक कम नमूना आकार केवल एक अलग नमूने के साथ आ सकता है। एक अलग नमूना अलग-अलग सहसंयोजक दिखा सकता है, इसलिए। लेकिन जैसा कि नमूना covariance को औसत के रूप में परिभाषित किया गया है, नमूना आकार को सिद्धांत रूप में बढ़ाया गया है।
निक कॉक्स

5

की सहप्रसरण की परिभाषा और है । अभिव्यक्ति कि सूत्र में है की केंद्रित संस्करण । इसलिए हम पहले से ही केंद्र में रखते हैं जब हम सहसंयोजक लेते हैं, और केंद्रित करना एक आदर्श ऑपरेटर है; एक बार एक चर केंद्रित होने के बाद, केंद्र की प्रक्रिया को और समय पर लागू करने से इसमें बदलाव नहीं होता है। यदि सूत्र चर के केंद्रित संस्करणों को नहीं लेता है, तो सभी प्रकार के अजीब प्रभाव होंगे, जैसे कि तापमान और किसी अन्य चर के बीच सहसंयोजन अलग-अलग हो सकता है जो कि हम सेल्सियस या केल्विन में तापमान को मापते हैं।XYE[(XE[X])(YE[Y])]XE[X]XX


3

"कहीं" एक अविश्वसनीय स्रोत नहीं है ...

सहसंयोजक / सहसंबंध को स्पष्ट केंद्र के साथ परिभाषित किया गया है । यदि आप डेटा को केंद्र में नहीं रखते हैं, तो आप कोवरियन / सहसंबंध की गणना नहीं कर रहे हैं। (संक्षेप में: पियर्सन सहसंबंध)

मुख्य अंतर यह है कि क्या आप सैद्धांतिक मॉडल के आधार पर केंद्र बनाते हैं (उदाहरण के लिए, अपेक्षित मान बिल्कुल 0 होना चाहिए) या डेटा (अंकगणितीय माध्य) के आधार पर। यह देखना आसान है कि अंकगणित माध्य किसी भी अलग केंद्र की तुलना में छोटे कोवरियन पैदा करेगा।

हालांकि, छोटे सहसंयोजक छोटे सहसंबंध, या विपरीत का मतलब नहीं है। मान लें कि हमारे पास डेटा एक्स = (1,2) और वाई = (2,1) है। यह देखना आसान है कि अंकगणित माध्य के साथ यह पूरी तरह से नकारात्मक सहसंबंध पैदा करेगा, जबकि अगर हम जानते हैं कि निर्माण प्रक्रिया औसतन 0 का उत्पादन करती है, तो डेटा वास्तव में सकारात्मक रूप से सहसंबद्ध है। तो इस उदाहरण में, हम केंद्रित हैं - लेकिन 0 के सैद्धांतिक अपेक्षित मूल्य के साथ।

यह आसानी से उत्पन्न हो सकता है। विचार करें कि हमारे पास एक सेंसर सरणी है, 11x11, जिनकी संख्या -5 से +5 तक है। अंकगणितीय माध्य लेने के बजाय, यह हमारे सेंसर सरणी के "भौतिक" माध्य का उपयोग करने के लिए समझ में आता है जब सेंसर घटनाओं के सहसंबंध की तलाश में है (यदि हमने कोशिकाओं को 0 से 10 तक गणना की है, तो हम 5 का उपयोग निश्चित अर्थ के रूप में करेंगे। और हम सटीक समान परिणाम प्राप्त करेंगे, ताकि अनुक्रमण विकल्प विश्लेषण से गायब हो जाए - अच्छा)।


धन्यवाद @ Anony-Mousse, क्या नमूना कोवरियन नमूना आकार पर निर्भर करेगा? यानी छोटे नमूने का आकार छोटे कोवरियन (केंद्र में आने से पहले) होगा।
lvdp

1
स्पष्ट रूप से नमूने पर निर्भर करता है। औसतन - मुझे नहीं पता। मुझे उम्मीद है कि छोटे नमूनों में अधिक परिवर्तनशीलता होगी, इसलिए हो सकता है कि अधिक बार अधिक मूल्यवान मान हों। लेकिन वह सिर्फ एक अंतर्ज्ञान है।
QUIT - Anony-Mousse
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.