t -values और R2 बहुत अलग बातें न्याय किया जाता है। t -values के अपने अनुमान के accurary न्याय किया जाता है βi की, लेकिन R2 उपायों आपकी प्रतिक्रिया चर में परिवर्तन की राशि आपके covariates से समझाया। मान लीजिए कि आप n टिप्पणियों के साथ एक प्रतिगमन मॉडल का अनुमान लगा रहे हैं ,
Yi=β0+β1X1i+...+βkXki+ϵi
जहां ϵi∼i.i.dN(0,σ2) , i=1,...,n ।
बड़े t -values (निरपेक्ष मूल्य में) शून्य परिकल्पना है कि अस्वीकार करने के लिए आप का नेतृत्व βi=0 । इसका मतलब है कि आप आश्वस्त हो सकते हैं कि आपने गुणांक के संकेत का सही अनुमान लगाया है। इसके अलावा, अगर |t|> 4 और आपके पास n>5 , तो 0 गुणांक के लिए 99% विश्वास अंतराल में नहीं है। t एक गुणांक के लिए -value βi अनुमान के बीच अंतर है βi^ और 0 से मानक त्रुटि सामान्यीकृत se{βi^} ।
t=βi^se{βi^}
जो केवल इसकी परिवर्तनशीलता के माप से विभाजित अनुमान है। यदि आपके पास एक बड़ा पर्याप्त डेटासेट है, तो आपके पास हमेशा सांख्यिकीय रूप से महत्वपूर्ण (बड़े) t अंतराल होंगे। इसका मतलब जरूरी नहीं है कि आपके सहसंयोजक प्रतिक्रिया चर में भिन्नता के बारे में बहुत कुछ समझाते हैं।
जैसा कि @ स्टैट ने उल्लेख किया है, R2 आपके आश्रित चर द्वारा आपके प्रतिक्रिया चर में भिन्नता की मात्रा को मापता है। R2 बारे में अधिक जानकारी के लिए , विकिपीडिया पर जाएं । आपके मामले में, ऐसा लगता है कि आप इसे सही अनुमान लगाने के लिए एक बड़ा पर्याप्त डेटा सेट βi की, लेकिन अपने covariates समझा और \ या प्रतिक्रिया मूल्यों की भविष्यवाणी की एक गरीब काम करते हैं।