एक लामर मॉडल के लिए किस बहुविध तुलना पद्धति का उपयोग किया जाता है: लसीन्स या ग्लेहट?


16

मैं एक मिश्रित प्रभाव मॉडल का उपयोग करके निर्धारित डेटा का विश्लेषण कर रहा हूं जिसमें एक निश्चित प्रभाव (स्थिति) और दो यादृच्छिक प्रभाव (विषय डिजाइन और जोड़ी के कारण प्रतिभागी) हैं। मॉडल lme4पैकेज के साथ उत्पन्न किया गया था exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp):।

इसके बाद, मैंने निश्चित प्रभाव (स्थिति) के बिना मॉडल के खिलाफ इस मॉडल का संभावना अनुपात परीक्षण किया और एक महत्वपूर्ण अंतर है। मेरे डेटा सेट में 3 शर्तें हैं इसलिए मैं एक बहु तुलना करना चाहता हूं लेकिन मुझे यकीन नहीं है कि किस विधि का उपयोग करना है । मुझे CrossValidated और अन्य मंचों पर इसी तरह के कई सवाल मिले, लेकिन मैं अभी भी काफी भ्रमित हूं।

मैंने जो देखा है, उससे लोगों ने उपयोग करने का सुझाव दिया है

1.lsmeans पैकेज - lsmeans(exp.model,pairwise~condition)जो मुझे निम्नलिखित उत्पादन देता है:

condition     lsmean         SE    df  lower.CL  upper.CL
 Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089
 Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443
 Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552

Confidence level used: 0.95 

$contrasts
 contrast                   estimate         SE    df t.ratio p.value
 Condition1 - Condition2 -0.04893538 0.03813262 62.07  -1.283  0.4099
 Condition1 - Condition3 -0.10424628 0.03813262 62.07  -2.734  0.0219
 Condition2 - Condition3 -0.05531090 0.03813262 62.07  -1.450  0.3217

P value adjustment: tukey method for comparing a family of 3 estimates 

2.multcomp दो अलग अलग तरीकों पैकेज - का उपयोग करते हुए mcp glht(exp.model,mcp(condition="Tukey")), जिसके परिणामस्वरूप

     Simultaneous Tests for General Linear Hypotheses

Multiple Comparisons of Means: Tukey Contrasts


Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair), 
    data = exp, REML = FALSE)

Linear Hypotheses:
                             Estimate Std. Error z value Pr(>|z|)  
Condition2 - Condition1 == 0  0.04894    0.03749   1.305    0.392  
Condition3 - Condition1 == 0  0.10425    0.03749   2.781    0.015 *
Condition3 - Condition2 == 0  0.05531    0.03749   1.475    0.303  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1
(Adjusted p values reported -- single-step method)

और lsm glht(exp.model,lsm(pairwise~condition))जिसके परिणामस्वरूप का उपयोग कर

Note: df set to 62

     Simultaneous Tests for General Linear Hypotheses

Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair), 
    data = exp, REML = FALSE)

Linear Hypotheses:
                             Estimate Std. Error t value Pr(>|t|)  
Condition1 - Condition2 == 0 -0.04894    0.03749  -1.305   0.3977  
Condition1 - Condition3 == 0 -0.10425    0.03749  -2.781   0.0195 *
Condition2 - Condition3 == 0 -0.05531    0.03749  -1.475   0.3098  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1
(Adjusted p values reported -- single-step method)

जैसा कि आप देख सकते हैं, तरीके अलग-अलग परिणाम देते हैं। यह मेरा पहली बार आर और आँकड़े के साथ काम कर रहा है इसलिए कुछ गलत हो सकता है, लेकिन मुझे नहीं पता होगा कि कहां। मेरे प्रश्न हैं:

प्रस्तुत विधियों के बीच अंतर क्या हैं? मैंने संबंधित प्रश्नों के उत्तर में पढ़ा कि यह स्वतंत्रता की डिग्री ( lsmeansबनाम glht) के बारे में है । क्या इस प्रकार के डेटा सेट / मॉडल आदि के लिए कौन सा, अर्थात, विधि 1 का उपयोग करते समय कुछ नियम या सिफारिशें हैं? मुझे किस परिणाम की रिपोर्ट करनी चाहिए? बेहतर जानने के बिना, मैं शायद बस जाऊंगा और उच्चतम पी-मूल्य की रिपोर्ट करूंगा, जो मुझे सुरक्षित खेलने के लिए मिला है, लेकिन बेहतर कारण होना अच्छा होगा। धन्यवाद

जवाबों:


17

पूरा जवाब नहीं ...

glht(myfit, mcp(myfactor="Tukey"))और दो अन्य तरीकों के बीच का अंतर यह है कि यह तरीका "z" सांख्यिकीय (सामान्य वितरण) का उपयोग करता है, जबकि अन्य लोग "t" सांख्यिकीय (छात्र वितरण) का उपयोग करते हैं। "Z" सांख्यिकी इसे स्वतंत्रता के अनंत अंश के साथ "t" सांख्यिकीय के समान है। यह विधि एक स्पर्शोन्मुख है और यह अन्य लोगों की तुलना में छोटे पी-मान और छोटे आत्मविश्वास अंतराल प्रदान करती है। पी-मान बहुत छोटा हो सकता है और यदि डेटासेट छोटा है तो आत्मविश्वास अंतराल बहुत कम हो सकता है।

जब मैं चलता हूं lsmeans(myfit, pairwise~myfactor)तो निम्न संदेश दिखाई देता है:

Loading required namespace: pbkrtest

इसका मतलब है कि lsmeans(एक lmerमॉडल के लिए) उस pbkrtestपैकेज का उपयोग करता है जो "टी" स्टेटिस्टिक की स्वतंत्रता की डिग्री के लिए केनवर्ड एंड रोजर्स पद्धति को लागू करता है । यह विधि स्पर्शोन्मुख एक से बेहतर पी-मान और आत्मविश्वास अंतराल प्रदान करने का इरादा रखती है (स्वतंत्रता की डिग्री बड़ी होने पर कोई अंतर नहीं है)।

अब, के बीच अंतर के बारे में lsmeans(myfit, pairwise~myfactor)$contrastsऔर glht(myfit, lsm(pairwise~factor), मैं सिर्फ कुछ परीक्षण किया है और मेरी टिप्पणियों निम्नलिखित हैं:

  • lsmlsmeansपैकेज और पैकेज के बीच एक इंटरफ़ेस है multcomp(देखें ?lsm)

  • एक संतुलित डिजाइन के लिए परिणामों के बीच कोई अंतर नहीं है

  • असंतुलित डिजाइन के लिए, मैंने परिणामों (मानक त्रुटियों और टी अनुपात) के बीच छोटे अंतर देखे।

दुर्भाग्य से मुझे नहीं पता कि इन मतभेदों का कारण क्या है। यह लीनियर हाइपोथीसिस मैट्रिक्स और स्वतंत्रता की डिग्री प्राप्त करने के लिए lsmकॉल की तरह दिखता है lsmeans, लेकिन lsmeansमानक त्रुटियों की गणना करने के लिए एक अलग तरीके का उपयोग करता है।


विस्तृत प्रतिक्रिया के लिए धन्यवाद! मैं पूरी तरह से टेस्ट स्टेटिस्टिक में अंतर करने से चूक गया ... आप उल्लेख करते हैं कि मूल्य बहुत छोटे हो सकते हैं और एसआईइम्पटिक विधि के लिए बहुत संकीर्ण हैं। मेरे डेटा सेट में ~ 30 प्रतिभागी हैं, इसलिए मुझे लगता है कि मैं टी-स्टेटिस्टिक से चिपका रहूंगा। जब आप कहते हैं कि केनवर्ड एंड रोजर्स पद्धति बेहतर पी-वैल्यू की ओर ले जाती है, तो क्या आपका मतलब अधिक सटीक या छोटा है? इसलिए डीएफ और एसई गणना के तरीकों में अंतर के कारण मतभेद हैं और मेरे मॉडल के साथ उनमें से एक के गलत उपयोग के कारण नहीं, अगर मैंने आपको सही तरीके से समझा। क्या यहां "सर्वश्रेष्ठ" विधि चुनने का एक तरीका है?
schvaba986

11
(मैं lsmeans पैकेज डेवलपर हूं ) pbkrtest पैकेज lsmeansका उपयोग करता है, जो अनुमानों में कम पूर्वाग्रह के साथ समायोजित (1) Kenward- रोजर्स df गणना और (2) के लिए एक समायोजित सहसंयोजक मैट्रिक्स प्रदान करता है। यदि आप पहली बार सेट करते हैं lsm.options(disable.pbkrtest=TRUE), तो lsmeansकॉल adjust="mvt"उसी परिणाम देगा glht, जैसे मल्टीवेरेट टी वितरण के लिए दोनों पैकेजों द्वारा उपयोग किए गए यादृच्छिक एल्गोरिदम के कारण मामूली अंतर को छोड़कर।
रस लेथ

3
हालाँकि, मैं pbkrtest को अक्षम किए बिना "mvt" समायोजन का सुझाव देता हूं, क्योंकि पूर्वाग्रह समायोजन और इस तथ्य के कारण कि कोई df के साथ, asymptotic (z) मान अनिवार्य रूप से अनंत df मान लेते हैं, जिससे अप्रतिबंधित कम P मान उत्पन्न होते हैं।
रस लेथ

3
वैसे, डिफ़ॉल्ट एक-चरण (एक साथ CI) गुणन समायोजन के अलावा विभिन्न चरण-डाउन परीक्षण विधियों के लिए summaryविधि की glhtअनुमति देता है। एक पूरी तरह से अलग बिंदु पर, यदि आपके पास एक से अधिक कारक हैं, lsmतो सामान्य प्रकार की तुलनाओं को काफी आसानी से बना सकते हैं, जबकि mcpयह बिल्कुल भी नहीं कर सकता है।
रस एलेंट
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.