Y के साथ x और x के साथ y पर रैखिक प्रतिगमन में क्या अंतर है?


97

एक्स और वाई का पियर्सन सहसंबंध गुणांक समान है, चाहे आप पियरसन (एक्स, वाई) या पीयरसन (y, x) की गणना करें। इससे पता चलता है कि दिए गए y या x के y का रैखिक प्रतिगमन एक ही होना चाहिए, लेकिन मुझे नहीं लगता कि ऐसा है।

क्या कोई उस समय पर प्रकाश डाल सकता है जब संबंध सममित नहीं है, और यह कैसे पियर्सन सहसंबंध गुणांक से संबंधित है (जो मैं हमेशा सबसे अच्छी फिट रेखा को संक्षेप में प्रस्तुत करने के बारे में सोचता हूं)?


1
प्रत्येक सहसंबंध मैट्रिक्स सममित होगा क्योंकि । मैं आपको गणित देखने के लिए प्रोत्साहित करता हूं कि यह वास्तव में सच है। यदि आपको पता है कि और बीच संबंध (या जो भी ब्याज के चर हैं) सममिति एक प्राथमिकता नहीं है , तो यह आपको विश्लेषण के अन्य तरीकों को देखने के लिए लाभ दे सकता है। x ycov(x,y)=cov(y,x)xy
फिलिप क्लाउड

जवाबों:


159

सबसे अच्छा तरीका यह के बारे में सोचना साथ अंक की एक scatterplot कल्पना करना है ऊर्ध्वाधर अक्ष और पर क्षैतिज अक्ष का प्रतिनिधित्व करती। इस ढांचे को देखते हुए, आपको अंकों का एक बादल दिखाई देता है, जो अस्पष्ट रूप से गोलाकार हो सकता है, या दीर्घवृत्त में बदल सकता है। आप प्रतिगमन में जो करने की कोशिश कर रहे हैं वह वही है जिसे 'सर्वश्रेष्ठ फिट की रेखा' कहा जा सकता है। हालांकि, जब यह सीधा लगता है, तो हमें यह पता लगाने की आवश्यकता है कि हम 'सर्वश्रेष्ठ' से क्या मतलब रखते हैं, और इसका मतलब है कि हमें यह परिभाषित करना चाहिए कि एक पंक्ति के लिए अच्छा क्या होगा, या एक पंक्ति के लिए दूसरे से बेहतर होना, आदि विशेष रूप से। , हम एक नुकसान समारोह निर्धारित करना चाहिएx yx। एक नुकसान फ़ंक्शन हमें यह कहने का एक तरीका देता है कि 'कुछ' कितना बुरा है, और इस प्रकार, जब हम इसे कम करते हैं, तो हम अपनी लाइन को 'अच्छा' बनाते हैं, या 'सबसे अच्छी' लाइन पाते हैं।

परंपरागत रूप से, जब हम एक प्रतिगमन विश्लेषण करते हैं, तो हम ढलान का अनुमान लगाते हैं और अवरोधन करते हैं ताकि चुकता त्रुटियों का योग कम से कम हो । इन्हें निम्नानुसार परिभाषित किया गया है:

SSE=i=1N(yi(β^0+β^1xi))2

हमारे स्कैटरप्लॉट के संदर्भ में, इसका मतलब है कि हम देखे गए डेटा बिंदुओं और रेखा के बीच ऊर्ध्वाधर दूरी (वर्ग की राशि) को कम कर रहे हैं ।

यहाँ छवि विवरण दर्ज करें

दूसरी ओर, को पर पुनः प्राप्त करना पूरी तरह से उचित है , लेकिन उस स्थिति में, हम को ऊर्ध्वाधर अक्ष पर, और इसी तरह से रखेंगे । अगर हमने अपने प्लॉट को ( क्षैतिज अक्ष पर साथ ) रखा है, तो को (फिर से, और साथ उपरोक्त समीकरण के थोड़ा अनुकूलित संस्करण का उपयोग करके ) को पुनः प्राप्त करने का अर्थ है कि हम क्षैतिज दूरी का योग कम से कम करेंगेy x x x y x yxyxxxyxyदेखे गए डेटा बिंदुओं और रेखा के बीच। यह बहुत समान लगता है, लेकिन यह एक ही बात नहीं है। (इसे पहचानने का तरीका दोनों तरीकों से करना है, और फिर बीजगणितीय रूप से पैरामीटर अनुमानों के एक सेट को दूसरे की शर्तों में बदलना है। पहले मॉडल को दूसरे मॉडल के पुनर्व्यवस्थित संस्करण के साथ तुलना करना, यह देखना आसान हो जाता है कि वे। एक ही नहीं।)

यहाँ छवि विवरण दर्ज करें

ध्यान दें कि किसी भी तरह से एक ही लाइन का उत्पादन नहीं होगा, अगर कोई व्यक्ति हमें ग्राफ पेपर का एक टुकड़ा सौंपता है, तो हम उसे सहज रूप से आकर्षित करेंगे। उस स्थिति में, हम केंद्र के माध्यम से एक रेखा को सीधे खींचेंगे, लेकिन ऊर्ध्वाधर दूरी को कम करने के लिए एक रेखा पैदा होती है जो थोड़ी चापलूसी होती है (यानी, एक ढलान ढलान के साथ), जबकि क्षैतिज दूरी को कम करने से एक पंक्ति होती है जो थोड़ी सी छोटी होती है

एक सहसंबंध सममित है; , साथ सहसंबद्ध है जैसा कि साथ है । पियर्सन उत्पाद-क्षण सहसंबंध को एक प्रतिगमन संदर्भ के भीतर समझा जा सकता है, हालांकि। सहसंबंध गुणांक, , प्रतिगमन रेखा का ढलान है जब दोनों चर पहले मानकीकृत किए गए हैं । यही है, आपने पहले प्रत्येक अवलोकन से माध्य को घटाया, और फिर मानक विचलन द्वारा अंतर को विभाजित किया। डेटा बिंदुओं के बादल अब मूल पर केंद्रित किया जाएगा, और ढलान एक ही है कि क्या आप वहीं होगा पर , या परy y x r y x x yxyyxryxxy (लेकिन नीचे @DilipSarwate द्वारा टिप्पणी पर ध्यान दें)।

यहाँ छवि विवरण दर्ज करें

अब, यह बात क्यों है? हमारे पारंपरिक नुकसान समारोह का उपयोग करना, हम कह रहे हैं कि त्रुटि के सभी केवल में है एक चर का (अर्थात।, )। यही है, हम कह रहे हैं कि को त्रुटि के बिना मापा जाता है और उन मूल्यों के समूह का गठन करता है जिनकी हम परवाह करते हैं, लेकिन उस में नमूनाकरण त्रुटि हैx yxy। यह कहावत से अलग है। यह एक दिलचस्प ऐतिहासिक कड़ी में महत्वपूर्ण था: अमेरिका में 70 के दशक के अंत और 80 के दशक की शुरुआत में, यह मामला बनाया गया था कि कार्यस्थल में महिलाओं के साथ भेदभाव होता था, और यह प्रतिगमन विश्लेषण के साथ समर्थित था जो दिखा रहा था कि समान पृष्ठभूमि वाली महिलाएं (उदाहरण के लिए) , योग्यता, अनुभव, आदि का भुगतान किया गया, औसतन, पुरुषों की तुलना में कम। आलोचकों (या सिर्फ जो लोग पूरी तरह से अतिरिक्त थे) ने तर्क दिया कि अगर यह सच था, तो पुरुषों के साथ समान रूप से भुगतान करने वाली महिलाओं को अधिक योग्य होना होगा, लेकिन जब यह जाँच की गई, तो पाया गया कि हालांकि परिणाम 'महत्वपूर्ण' थे एक तरह से मूल्यांकन किया, दूसरे तरीके की जाँच करने पर वे 'महत्वपूर्ण' नहीं थे, जिसने सभी को एक चक्कर में डाल दिया। यहाँ देखें एक प्रसिद्ध पेपर के लिए जिसने इस मुद्दे को साफ करने की कोशिश की।


(बहुत बाद में अपडेट किया गया) इस बारे में सोचने का एक और तरीका है जो नेत्रहीन के बजाय सूत्र के माध्यम से विषय पर पहुंचता है:

एक साधारण प्रतिगमन रेखा के ढलान के लिए सूत्र नुकसान फ़ंक्शन का एक परिणाम है जिसे अपनाया गया है। यदि आप मानक ऑर्डिनरी लेस्टर स्क्वेयर लॉस फंक्शन (ऊपर उल्लिखित) का उपयोग कर रहे हैं , तो आप उस ढलान के फार्मूले को प्राप्त कर सकते हैं जिसे आप हर इंट्रो टेक्स्टबुक में देखते हैं। इस सूत्र को विभिन्न रूपों में प्रस्तुत किया जा सकता है; जिनमें से एक को मैं ढलान के लिए 'सहज' सूत्र कहता हूं। दोनों स्थिति है जहाँ आप regressing कर रहे हैं के लिए इस प्रपत्र पर विचार करें पर , और जहाँ आप regressing कर रहे हैं पर : एक्स एक्स y y  पर  एक्स बीटा 1 = Cov ( एक्स , वाई )yxxy

β^1=Cov(x,y)Var(x)y on x                              β^1=Cov(y,x)Var(y)x on y
अब, मुझे आशा है कि यह स्पष्ट है कि ये वही नहीं होगा जब तक कि के बराबर होती है । प्रसरण तो कर रहे हैं बराबर (जैसे, क्योंकि आप चर पहले मानकीकृत), तो इसलिए मानक विचलन, और इस तरह प्रसरण हैं होगा दोनों भी बराबर । इस मामले में, पियर्सन की बराबर होगा , जो के आधार पर ही किसी भी तरह से है commutativity के सिद्धांत : Var(x)Var(y)SD(x)SD(y)β^1r
r=Cov(x,y)SD(x)SD(y)correlating x with y                           r=Cov(y,x)SD(y)SD(x)correlating y with x

2
नुकसान समारोह को कम करने के उल्लेख के लिए +1। ऊर्ध्वाधर या क्षैतिज दूरी के विकल्प में लंबवत दूरी का उपयोग रेखा या आयत के क्षेत्र में शामिल होता है, जो प्रत्येक अलग प्रतिगमन लाइनों का उत्पादन करते हैं।
हेनरी

7
मुझे नहीं लगता कि कि बयान "ढलान ही होगा कि क्या आप वहीं पर , या पर ।" यदि कन्वेंशन क्षैतिज अक्ष पर और ऊर्ध्वाधर अक्ष पर प्लॉट करने के लिए सही है। इस मामले में, ढलान एक दूसरे के पारस्परिक हैं । यदि हम क्षैतिज अक्ष पर स्वतंत्र चर के कन्वेंशन का पालन करते हैं और ऊर्ध्वाधर अक्ष पर निर्भर चर करते हैं, तो हाँ, ढलान एक ही तरह से है। लेकिन इस सम्मेलन के साथ, ऊर्ध्वाधर दूरी बनाम क्षैतिज दूरी की व्याख्या लागू नहीं होती है; यह हमेशा लाइन से बिंदुओं की ऊर्ध्वाधर दूरी है। yxxyxy
दिलीप सरवटे

4
@DilipSarwate, आप जो कह रहे हैं वह सच है। "वर्टिकल" और "हॉरिज़ॉन्टल" शब्दों का उपयोग करने में मेरा नज़रिया स्पष्ट रूप से इस विचार को स्पष्ट करना है कि त्रुटि को में नमूना त्रुटि केy रूप में समझा जाता है , या में नमूना त्रुटिx । क्या हमें ऊर्ध्वाधर अक्ष पर को प्लॉट करना चाहिए और को पर पुनः प्राप्त करना चाहिए , कम से कम दूरी ऊर्ध्वाधर होगी, लेकिन न्यूनतम त्रुटि अभी भी में नमूना त्रुटि होगी । यह हो सकता है कि मेरा उत्तर पर्याप्त रूप से स्पष्ट न हो; मैं इसे संपादित कर सकता हूं, अगर मैं बेहतर तरीके से सोच सकता हूं। xxyx
गंग

1
क्या आप कह सकते हैं कि सहसंबंध के मामले में बिंदुओं और रेखा के बीच की ऑर्थोगोनल दूरी को कम से कम किया जा रहा है? (मेरा मतलब है कि बिंदु से "प्रतिगमन" रेखा पर जाने वाली और उस पर orthogonally खड़ी है)।
vonjd

1
पियर्सन का सहसंबंध काफी हद तक सही नहीं है, @vonjd। यह पता चला है कि यह पहले से मानकीकृत डेटा के कम से कम वर्ग रेखा के ढलान के बराबर है। 1 मुख्य घटक, जब केवल 2 चर होते हैं और डेटा को पहले मानकीकृत किया गया था, एक फिट लाइन की तरह है जो ऑर्थोगोनल दूरी को कम करता है। HTH
गुंग

12

मैं कुछ Rकोड और आउटपुट के साथ उत्तर का वर्णन करने जा रहा हूं ।

सबसे पहले, हम y5 के औसत और 1 के एसडी के साथ एक यादृच्छिक सामान्य वितरण का निर्माण करते हैं :

y <- rnorm(1000, mean=5, sd=1)

इसके बाद, मैं जानबूझकर एक दूसरा यादृच्छिक सामान्य वितरण बनाता हूं x, जो कि yप्रत्येक के लिए केवल 5x मूल्य है y:

x <- y*5

डिजाइन के अनुसार, हमारे पास सही सहसंबंध है xऔर y:

cor(x,y)
[1] 1
cor(y,x)
[1] 1

हालाँकि, जब हम एक रिग्रेशन करते हैं, तो हम एक ऐसे फंक्शन की तलाश में होते हैं, जो रिलेट करता है xऔर yइसलिए रिग्रेशन गुणांक के परिणाम उस पर निर्भर करते हैं, जिस पर हम डिपेंडेंट वेरिएबल के रूप में उपयोग करते हैं, और जिसे हम इंडिपेंडेंट वेरिएबल के रूप में उपयोग करते हैं। इस मामले में, हम एक अवरोधन फिट नहीं करते हैं क्योंकि हमने बिना किसी यादृच्छिक बदलाव के xएक कार्य किया है y:

lm(y~x-1)
Call:
lm(formula = y ~ x - 1)

Coefficients:
  x  
0.2

lm(x ~ y-1)
Call:
lm(formula = x ~ y - 1)

Coefficients:
y  
5  

इसलिए प्रतिगमन हमें यह बताते हैं कि कौन सा y=0.2xऔर x=5yकौन सा समान हैं। सहसंबंध गुणांक बस हमें दिखा रहा है कि यूनिट परिवर्तन के स्तर के बीच एक सटीक मिलान है xऔर yइसलिए (उदाहरण के लिए) 1-यूनिट की वृद्धि yहमेशा 0.2-यूनिट में वृद्धि का उत्पादन करती है x


6

Pearson के सहसंबंध के बाद से अंतर्दृष्टि कि क्या हम y के खिलाफ x का एक प्रतिगमन करते हैं, या x के खिलाफ y एक अच्छा है, हमें एक ही रैखिक प्रतिगमन प्राप्त करना चाहिए एक अच्छा है। यह केवल थोड़ा गलत है, और हम इसका उपयोग यह समझने के लिए कर सकते हैं कि वास्तव में क्या हो रहा है।

यह एक पंक्ति के लिए समीकरण है, जिसे हम अपने प्रतिगमन से प्राप्त करने की कोशिश कर रहे हैं

यहाँ छवि विवरण दर्ज करें

उस पंक्ति के ढलान के लिए समीकरण पियर्सन के सहसंबंध से प्रेरित है

यहाँ छवि विवरण दर्ज करें

यह पियर्सन के सहसंबंध के लिए समीकरण है। यह वही है कि क्या हम x के विरुद्ध y या y के विरुद्ध x को पुनः प्राप्त कर रहे हैं

यहाँ छवि विवरण दर्ज करें

हालाँकि जब हम ढलान के लिए अपने दूसरे समीकरण को देखते हैं, तो हम देखते हैं कि उस समीकरण में पियर्सन का सहसंबंध एकमात्र शब्द नहीं है। यदि हम x के विरुद्ध y की गणना कर रहे हैं, तो हमारे पास x के नमूना मानक विचलन द्वारा विभाजित y का नमूना मानक विचलन भी है। यदि हम y के खिलाफ x के प्रतिगमन की गणना करने के लिए थे, तो हमें उन दो शब्दों को उलटने की आवश्यकता होगी।


4

इस तरह के सवालों पर तकनीकी मुद्दों पर पकड़ बनाना आसान है, इसलिए मैं विशेष रूप से थ्रेड के शीर्षक में सवाल पर ध्यान केंद्रित करना चाहता हूं जो पूछता है: y के साथ x और x के साथ y पर रैखिक प्रतिगमन में क्या अंतर है ?

मानव पूंजी सिद्धांत से एक पल (सरलीकृत) अर्थमितीय मॉडल के लिए विचार करें (लिंक नोबेल पुरस्कार विजेता गैरी बेकर के एक लेख पर जाता है)। मान लें कि हम निम्नलिखित फ़ॉर्म का एक मॉडल निर्दिष्ट करते हैं: इस मॉडल की व्याख्या मजदूरी और शिक्षा के बीच एक कारण संबंध के रूप में की जा सकती है। महत्वपूर्ण रूप से, इस संदर्भ में कार्य-कारण का अर्थ है, कार्य-कारण की दिशा शिक्षा से मजदूरी तक चलती है न कि दूसरे रास्ते से। यह उस रूप में निहित है जिस तरह से मॉडल तैयार किया गया है; आश्रित चर मजदूरी है और स्वतंत्र चर शिक्षा का वर्ष है।

wages=b0+b1 years of education+error

अब, यदि हम अर्थमितीय समीकरण (अर्थात, x को x से x पर y में बदल दें) को उलट देते हैं, तो ऐसा हो जाता है कि मॉडल फिर अर्थमितीय समीकरण के निर्माण में निहित है कि हम कह रहे हैं कि कार्य-कारण की दिशा मजदूरी से शिक्षा तक चलती है।

years of education=b0+b1 wages+error

मुझे यकीन है कि आप इस तरह के उदाहरणों के बारे में सोच सकते हैं (अर्थशास्त्र के दायरे के बाहर भी), लेकिन जैसा कि आप देख सकते हैं, मॉडल की व्याख्या में काफी बदलाव आ सकता है जब हम x पर x से x पर पुनः प्राप्त करने से स्विच करते हैं।

तो, प्रश्न का उत्तर देने के लिए: y के साथ x और x के साथ y पर रैखिक प्रतिगमन में क्या अंतर है? , हम कह सकते हैं कि प्रतिगमन समीकरण की व्याख्या तब बदलती है जब हम x पर y के बजाय x पर पुनः प्राप्त करते हैं। हमें इस बिंदु को नजरअंदाज नहीं करना चाहिए क्योंकि एक ध्वनि की व्याख्या करने वाला मॉडल जल्दी से एक में बदल सकता है जो बहुत कम या कोई मतलब नहीं है।


3

इस विषय में एक बहुत ही रोचक घटना है। एक्स और वाई के आदान-प्रदान के बाद, हालांकि प्रतिगमन गुणांक में परिवर्तन होता है, लेकिन गुणांक के लिए टी-स्टेटिस्टिक / एफ-स्टेटिस्टिक और महत्व स्तर नहीं बदलता है। कई प्रतिगमन में भी यह सच है, जहां हम एक स्वतंत्र चर के साथ y का आदान-प्रदान करते हैं।

यह एफ-स्टेटिस्टिक और (आंशिक) सहसंबंध गुणांक के बीच एक नाजुक संबंध के कारण है। यह संबंध वास्तव में रैखिक मॉडल सिद्धांत के मूल को छूता है। मेरी नोटबुक में इस निष्कर्ष के बारे में अधिक विवरण हैं: एक्सचेंज y और x का पी पर कोई प्रभाव क्यों है



2
लेख "एक्सचेंज वाई और एक्स का पी पर कोई प्रभाव क्यों नहीं है" अब यहां नहीं है। क्या आप इसे वापस जोड़ देंगे?
जेटलैग

1

@ गंग के उत्कृष्ट उत्तर पर विस्तार:

एक सरल रेखीय प्रतीपगमन में पियर्सन की का निरपेक्ष मान के रूप में देखा जा सकता है दो ढलानों का ज्यामितीय मध्यमान अगर हम पीछे की ओर हटाना हम प्राप्त पर और पर क्रमश: हम प्राप्त कर सकते हैं सीधे का उपयोग कर या ryxxy

β^1yonxβ^1xony=Cov(x,y)Var(x)Cov(y,x)Var(y)=|Cov(x,y)|SD(x)SD(y)=|r|
r
r=sign(β^1yonx)β^1yonxβ^1xony
r=sign(β^1xony)β^1yonxβ^1xony

दिलचस्प है, एएम-जीएम असमानता द्वारा , यह निम्नानुसार है कि दो ढलान गुणांक के अंकगणितीय माध्य का पूर्ण मान पियर्सन के के पूर्ण मूल्य से अधिक (या बराबर) है : r

|12(β^1yonx+β^1xony)|β^1yonxβ^1xony=|r|


1

संबंध सममित नहीं है क्योंकि हम दो अलग-अलग अनुकूलन समस्याओं को हल कर रहे हैं। निम्न समस्या को हल करने के रूप में लिखा जा सकता है:  Doing regression of y given x

minbE(YbX)2

जबकि : , जिसे इस रूप में फिर से लिखा जा सकता है:doing regression of x given y

minbE(XbY)2

minb1b2E(YbX)2

यह नोट करना भी महत्वपूर्ण है कि, दो अलग-अलग दिखने वाली समस्याओं का एक ही समाधान हो सकता है।


1
हालांकि यह सही है - और इन टिप्पणियों के लिए धन्यवाद - आप अपने पाठकों को लटका देते हैं: क्या आप बता सकते हैं कि इन दो अलग दिखने वाली समस्याओं के समाधान आवश्यक रूप से अलग क्यों हैं?
whuber

1
तुम सही हो। वास्तव में मैंने इसके बारे में सोचा था, लेकिन यह समझाने के लिए एक सरल (और कम गणितीय) तरीका नहीं खोज सका कि दो समाधान आवश्यक रूप से अलग क्यों हैं, यही कारण है कि मैंने इन दो समस्याओं को यथासंभव बनाने की कोशिश की । यहाँ, मैं सिर्फ एक अलग दृष्टिकोण प्रदान करने की कोशिश कर रहा हूँ। look
SiXUlm

अंतिम पंक्ति मध्य रेखा के बराबर कैसे है? यदि आप 1 / b ^ 2 को गुणा करते हैं तो आपको E (X - Y / b) ^ 2 नहीं E (X - Yb) ^ 2
Austin Shin

@AustinShin वास्तव में मैंने यहां थोड़ा धोखा दिया है। मध्य रेखा में, मैं बाहर निकालता हूं , फिर परिवर्तनशील परिवर्तन: , जो तब मुझे अंतिम पंक्ति देता है। b : = 1 / bbb:=1/b
SiXUlm

+1: आपने स्पष्ट रूप से अब अपनी बात रख दी है!
whuber

0

खैर, यह सच है कि एक साधारण द्विभाजन प्रतिगमन के लिए, रैखिक सहसंबंध गुणांक और आर-वर्ग दोनों समीकरणों के लिए समान होंगे। लेकिन ढलान r Sy / Sx या r Sx / Sy होगा, जो एक दूसरे के पारस्परिक नहीं हैं, जब तक कि r = 1 न हो।


1
"या " ... या अधिक आर 2 = 11r2=1
रसीला

-7

प्रतिगमन का मूल विचार 'कारण और प्रभाव' या 'स्वतंत्र और निर्भर' हो सकता है। X अक्ष में स्वतंत्र चर रखने और Y अक्ष में आश्रित चर रखने की सामान्य प्रथा को Y = mX + c द्वारा दर्शाया गया है। क्या ढलान को एम (एक्स ऑन वाई) या वाई (एक्स ऑन एक्स) और प्रतिगमन के रूप में कहा जाना है: या (एक्स ऑन वाई पर एक्स)। इसे दोनों तरीकों से नियंत्रित किया जाता है, जो अच्छा नहीं है और इसे स्पष्ट करने की आवश्यकता है। मोडेलर्स अक्सर स्कैटर प्लॉट्स का उपयोग करते हैं, यह जज करने के लिए कि क्या नकली श्रृंखला मिलान श्रृंखला से मेल खाती है; और प्रतिगमन लाइन का उपयोग अपरिहार्य है। यहाँ कोई कारण नहीं है। इस आवश्यकता को देखते हुए, थ्रेड द्वारा खड़ा म्यूट प्रश्न खड़ा होता है। या सीधे शब्दों में कहें, तो कृपया स्पष्ट करें कि सामान्य प्रतिगमन विश्लेषण कैसे कहा जाए: X on Y; या Y पर X?, करणीय उत्तर से परे जा रहे हैं। यह मुख्य धागे का जवाब नहीं है; लेकिन एक समानांतर सवाल।


6
-1 असंगत होने के अलावा, यह उत्तर महत्वपूर्ण विचार को छोड़ देता है इसलिए सबसे अच्छे उत्तर में बताया गया है: डेटा में भिन्नता का संभाव्यता मॉडल यह निर्धारित करता है कि क्या प्रतिगमन सार्थक है और यह निर्धारित करता है कि कौन सा चर आश्रित चर माना जा सकता है।
whuber

यह प्रतिवादी प्रथागत लेबलिंग के संदर्भ में, कुछ हद तक अस्पष्ट शीर्षक प्रश्न की एक व्याख्या को दोहरा सकता है। प्रपत्र y = mx + b की समस्या के लिए, क्या कोई व्यक्ति आमतौर पर "y पर फिर से प्रभावित होता है" (हाँ) के रूप में संबंध का वर्णन करता है या "x को फिर से y पर याद किया जाता है" (नहीं)? शब्दावली प्रश्न का उत्तर आँकड़े.स्टैकएक्सचेंज . com / questions / 207425 / पर दिया गया है
कैनोलाडो में
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.