क्या


18

मैं अपने आप को समझने के लिए अगर एक कोशिश कर भ्रमित हो पा रहे -squared मूल्य भी एक है -value।rp

मैं यह समझ के रूप में, डेटा बिंदुओं का एक सेट के साथ रैखिक सहसंबंध में से लेकर एक मूल्य हो सकता है के लिए 1 और इस मूल्य, जो भी हो, एक हो सकता है पी -value जो शो करता है, तो आर से काफी अलग है 0 (यानी , अगर वहाँ दो चर के बीच एक रैखिक संबंध है)।r11pr0

रेखीय प्रतिगमन पर चलते हुए, एक फ़ंक्शन को समीकरण द्वारा वर्णित डेटा के लिए फिट किया जा सकता है Y=a+bXa और b (अवरोधन और ढलान) में भी p -values ​​दिखाई देते हैं यदि वे से काफी अलग हैं 0

मैं अब तक सब कुछ समझ लिया है मान लें सही, हैं p के लिए -value r और p के लिए -value b सिर्फ एक ही बात? यह तो कहने के लिए है कि यह नहीं सही है r -squared एक है कि p -value बल्कि r या b है कि करता है?

जवाबों:


14

कई (सही) टिप्पणियां अन्य उपयोगकर्ताओं के द्वारा करने के अलावा उनका कहना है कि के लिए -value आर 2 के समान है पी वैश्विक लिए -value एफ परीक्षण, ध्यान दें कि आप भी प्राप्त कर सकते हैं पी के साथ जुड़े -value आर 2 " सीधे "इस तथ्य का उपयोग करते हुए कि n 2 परिकल्पना के तहत r को बीटा ( v n) के रूप में वितरित किया गया हैpr2pFpr2r2, जहांvnऔरvd, संबंधितएफ-अस्थिरता केलिए क्रमशः स्वतंत्रता के अंश और हर डिग्री हैं।Beta(vn2,vd2)vnvdF

बीटा वितरण पर विकिपीडिया प्रविष्टि के अन्य वितरण उपधारा से व्युत्पन्न में 3 गोली बिंदु हमें बताता है कि:

यदि और वाई ~ χ 2 ( β ) स्वतंत्र हैं, तो एक्सXχ2(α)Yχ2(β)XX+YBeta(α2,β2)

खैर, हम उस एक्स में लिख सकते हैंr2XX+Y फॉर्म।

चलो एक चर के लिए वर्गों के कुल योग हो Y , एस एस की एक प्रतिगमन के लिए वर्ग त्रुटियों का योग वाई कुछ अन्य चर पर, और एस एस आर होना "कम वर्गों का योग," यह है कि, एस एस आर = एस एस वाई - एस एस । फिर आर 2 = 1 - एस एस SSYYSSEYSSRSSR=SSYSSE और निश्चित रूप से, वर्गों की रकम होने के नाते,SSRऔरSSEदोनोंक्रमशःχ2 केरूप मेंvnऔरvdस्वतंत्रता की डिग्री केसाथवितरित किए जातेहैं। इसलिए, आर2~बीटा(वीएन

r2=1SSESSY=SSYSSESSY=SSRSSR+SSE
SSRSSEχ2vnvd (बेशक, मैंने यह नहीं दिखाया कि दो ची-वर्ग स्वतंत्र हैं। शायद एक टिप्पणीकार इसके बारे में कुछ कह सकता है।)
r2Beta(vn2,vd2)

R में प्रदर्शन (@gung से उधार कोड):

set.seed(111)
x = runif(20)
y = 5 + rnorm(20)
cor.test(x,y)

# Pearson's product-moment correlation
# 
# data:  x and y
# t = 1.151, df = 18, p-value = 0.2648
# alternative hypothesis: true correlation is not equal to 0
# 95 percent confidence interval:
#  -0.2043606  0.6312210
# sample estimates:
#       cor 
# 0.2618393 

summary(lm(y~x))

# Call:
#   lm(formula = y ~ x)
# 
# Residuals:
#     Min      1Q  Median      3Q     Max 
# -1.6399 -0.6246  0.1968  0.5168  2.0355 
# 
# Coefficients:
#             Estimate Std. Error t value Pr(>|t|)    
# (Intercept)   4.6077     0.4534  10.163 6.96e-09 ***
# x             1.1121     0.9662   1.151    0.265    
# ---
#   Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# 
# Residual standard error: 1.061 on 18 degrees of freedom
# Multiple R-squared:  0.06856,  Adjusted R-squared:  0.01681 
# F-statistic: 1.325 on 1 and 18 DF,  p-value: 0.2648

1 - pbeta(0.06856, 1/2, 18/2)

# [1] 0.2647731

6

मुझे आशा है कि यह चौथा (!) उत्तर चीजों को और स्पष्ट करेगा।

साधारण रेखीय प्रतिगमन में, तीन समतुल्य परीक्षण होते हैं:

  1. टी-परीक्षण शून्य जनसंख्या ढलान के लिए covariable X
  2. और प्रतिक्रिया Y के बीच शून्य जनसंख्या सहसंबंध के लिए t-testXY
  3. शून्य जनसंख्या आर-वर्ग के लिए एफ-परीक्षण, अर्थात की परिवर्तनशीलता के बारे में कुछ भी अलग एक्स द्वारा नहीं समझाया जा सकता है ।YX

सभी तीन परीक्षण और वाई के बीच एक रैखिक संघ के लिए जाँच करते हैं , सौभाग्य से (!), वे सभी एक ही परिणाम के लिए नेतृत्व करते हैं। उनके परीक्षण के आँकड़े बराबर हैं। (टेस्ट 1 और 2 n - 2 df के साथ छात्र-वितरण पर आधारित हैं, जो कि परीक्षण 3 के नमूने एफ-वितरण के साथ मेल खाता है, बस चुकता परीक्षण सांख्यिकीय के साथ)।XYn2

R में एक त्वरित उदाहरण:

# Input
set.seed(3)

n <- 100
X <- runif(n)
Y <- rnorm(n) + X

cor.test(~ X + Y) # For test 2 (correlation)

# Output (part)
# t = 3.1472, df = 98, p-value = 0.002184
# alternative hypothesis: true correlation is not equal to 0

# Input (for the other two tests)
fit <- lm(Y ~ X)
summary(fit)      

# Output (partial)
Coefficients:
            Estimate Std. Error t value Pr(>|t|)   
(Intercept) -0.03173    0.18214  -0.174  0.86204   
X            1.02051    0.32426   3.147  0.00218 **
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.9239 on 98 degrees of freedom
Multiple R-squared:  0.09179,   Adjusted R-squared:  0.08253 
F-statistic: 9.905 on 1 and 98 DF,  p-value: 0.002184

जैसा कि आप देख सकते हैं, तीन परीक्षण 0.00218 के समान p मान देते हैं। ध्यान दें कि परीक्षण 3 आउटपुट की अंतिम पंक्ति में एक है।

तो आर-वर्ग के लिए आपका एफ-टेस्ट बहुत बार-बार होता है, हालांकि बहुत से सांख्यिकीविद् इसे आर-स्क्वेर्ड के परीक्षण के रूप में व्याख्या नहीं कर रहे हैं।


5

तुम मुझे एक सभ्य समझ रहे हैं। हम एक मिल सकता है के लिए -value आर 2 , लेकिन क्योंकि यह एक (गैर स्टोकेस्टिक) के समारोह है आर , पी एस समान होगा। pr2rp


मुझे ऐसा नहीं लगता। के बारे में अनुमान कनेक्ट और आर 2 के बारे में निष्कर्ष करने के लिए α और β OLS से, ρ महत्वपूर्ण यदि है β अशून्य है, की परवाह किए बिना α । हालांकि, आर 2 महत्वपूर्ण है अगर या तो α या β गैर शून्य हैं। यह कल्पना करने में मदद करता है कि संबंधित परीक्षण क्या आकलन कर रहे हैं। ρr2αβρβαr2αβ
एडम ऑग

1
@ अदमो, मैं आपकी टिप्पणी में तर्क का पालन नहीं कर सकता। नीचे माइकल मेयर के पद के समान, आर ट्राय में set.seed(111); x = runif(20); y = 5 + rnorm(20); cor.test(x,y); summary(lm(y~x)):। आर के लिए पी है .265। वैश्विक एफ परीक्षण के लिए बी और पी के लिए पी समान हैं, भले ही पी एक के लिए है 6.96e-09
गंग -

बिल्कुल मेरी बात। , r 2 से अलग है और उनका p -value समान नहीं है। आर 2 के एक समारोह हो सकता है r , लेकिन यह भी एक monotonic कार्य नहीं है। जब r नहीं है, तो r 2 महत्वपूर्ण हो सकता है। R 2 क्या मापता है? यह ओएलएस ट्रेंडलाइन ड्राइंग और अवशिष्टों की गणना के बाद अवशिष्ट मानक त्रुटि है। अपने उदाहरण में, अवशिष्ट विचरण बिना शर्त से कम होगी वाई विचरण? पूर्ण रूप से। आर 2rr2pr2rr2rr2Yr2तब महत्वपूर्ण है। आप बूटस्ट्रैप के साथ ऑपरेटिंग विशेषताओं की गणना कर सकते हैं और एनोवा और साधारण न्यूनतम वर्गों के बीच संबंध भी मामले पर प्रकाश डालते हैं।
आदम

4
तुम भी प्राप्त कर सकते हैं के साथ जुड़े -value आर 2 "सीधे" तथ्य का उपयोग कर कि आर 2 शून्य परिकल्पना के तहत के रूप में वितरित किया जाता है बी टी एक ( वी एनpr2r2, जहांvnऔरvd, संबंधितएफ-अस्थिरता केलिए क्रमशः स्वतंत्रता के अंश और हर डिग्री हैं। (यहां तीसरी पहचान देखें:en.wikipedia.org/wiki/…।) इसलिए, अगरहम प्रवेशकरते हैंतो @ गंग के उदाहरण डेटा का उपयोगकरते हैं। Beta(vn2,vd2)vnvdFR1 - pbeta(0.06856, 1/2, 18/2)0.2647731
जेक वेस्टफॉल

4
@ अदमो, मुझे अभी भी समझ नहीं आ रहा है। वे दोनों हैं .265, वे कैसे समान नहीं हैं?
गुंग - को पुनः स्थापित मोनिका

4

पियरसन सहसंबंध, परीक्षणों के लिए परीक्षण आँकड़ा प्राप्त करने के कई तरीके हैं । एक प्राप्त करने के लिए पी -value, यह बल तुम दोनों एक परीक्षण और रिक्त परिकल्पना के तहत एक परीक्षण आंकड़ा का एक नमूना वितरण की जरूरत है कि लायक है। आपके शीर्षक और प्रश्न में पियर्सन सहसंबंध और "विचरण समझाया गया" r 2 के बीच कुछ भ्रम है । मैं पहले सहसंबंध गुणांक पर विचार करूंगा।ρpr2

पियर्सन सहसंबंध का परीक्षण करने का कोई "सबसे अच्छा" तरीका नहीं है, जिसके बारे में मुझे पता है। फ़िशर का ज़ेड ट्रांसफ़ॉर्मेशन एक ऐसा तरीका है, जो हाइपरबोलिक ट्रांसफ़ॉर्मेशन पर आधारित है, ताकि अनुमान थोड़ा अधिक कुशल हो। यह निश्चित रूप से एक "अच्छा" दृष्टिकोण है, लेकिन दुख की बात है कि बिट इस पैरामीटर के लिए अनुमान ढलान पैरामीटर के बारे में अनुमान के अनुरूप है है β संघ के लिए: वे लंबे समय में एक ही कहानी बता।

ββ एसोसिएशन के अधिक व्यावहारिक उपाय के रूप में हैं।

r2r2r2r2αβr2 except in a rare case of (perhaps) a non-nested predictive modeling calibration application... but BIC would probably be a better measure in that scenario anyway.


1
"The r2 is a function of both the slope and the intercept." Maybe I'm missing something but... isn't it just a function of the slope? Maybe you could provide a concrete demonstration?
Jake Westfall

Sure. Recall that if observed data perfectly correspond with the trendline, then r2=1 exactly. Consider "flat response" data with no variability but a non-zero intercept, so all tuples take the form (xi,β0) for all i{1,2,n}. r2=1 as alluded to. The coefficient of determination serves as a reasonable summary of predictive ability for a linear equation, and obtaining those predictions requires both a slope and an intercept.
AdamO

1

This isn't quite how I would interpret things. I don't think I'd ever calculate a p-value for r or r2. r and r2 are qualitative measures of a model, not measures that we're comparing to a distribution, so a p-value doesn't really make sense.

Getting a p-value for b makes a lot of sense - that's what tells you whether the model has a linear relationship or not. If b is statistically significantly different from 0 then you conclude that there is a linear relationship between the variables. The r or r2 then tells you how well the model explains the variation in the data. If r2 is low, then your independent variable isn't helping to explain very much about the dependent variable.

A p-value for a tells us if the intercept is statistically significantly different from 0 or not. This is of varying usefulness, depending on the data. My favorite example: if you do a linear regression between gestation time and birth weight you might find an intercept of, say, 8 ounces that is statistically different from 0. However, since the intercept represents a gestation age of 0 weeks, it doesn't really mean anything.

If anyone does regularly calculate p-values for an r2 I'd be interested in hearing about them.


4
Take a closer look at the output of your favorite regression command: it should report an F statistic and a p-value for it. That is also the p-value for the R2, because F and R2 are directly and monotonically related. For ordinary regression with n data, F=(n2)R2/(1R2). Its p-value will be the p-value for the slope. Therefore if you have ever used a p-value for b in ordinary regression, you have used a p-value for R2.
whuber

In practice it seems like people do not think in terms of the significance of r or r^2. What might be more useful is a confidence interval around them.
N Brouwer
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.