मैं का उपयोग कर कुछ व्यवहार डेटा का विश्लेषण कर रहा हूँ lme4में R, ज्यादातर निम्नलिखित बोडो विंटर्स उत्कृष्ट ट्यूटोरियल है, लेकिन मुझे समझ नहीं आता कि अगर मैं बातचीत से निपटने कर रहा हूँ ठीक से। इससे भी बदतर, इस शोध में शामिल कोई भी मिश्रित मॉडल का उपयोग नहीं करता है, इसलिए जब मैं यह सुनिश्चित करने के लिए थोड़ा सा सही काम करता हूं, तो मैं थोड़ा आडम्बर करता हूं।
मदद के लिए सिर्फ एक रोना पोस्ट करने के बजाय, मैंने सोचा कि मुझे समस्या की व्याख्या करने में अपना सर्वश्रेष्ठ प्रयास करना चाहिए, और फिर अपने सामूहिक सुधारों की भीख माँगनी चाहिए। कुछ अन्य सहायक हैं:
- लिखते समय, मैंने यह प्रश्न पाया है, यह दर्शाता है कि
nlmeअधिक सीधे बातचीत की शर्तों के लिए p मान देते हैं, लेकिन मुझे लगता है कि यह अभी भी संबंध के साथ पूछने के लिए वैध हैlme4। Livius'इस प्रश्न का उत्तर बहुत अधिक अतिरिक्त पढ़ने के लिए लिंक प्रदान करता है, जिसे मैं अगले कुछ दिनों में प्राप्त करने की कोशिश करूंगा, इसलिए मैं किसी भी प्रगति के साथ टिप्पणी करूंगा जो लाता है।
मेरे डेटा में, मेरे पास एक आश्रित चर dv, एक conditionहेरफेर (0 = नियंत्रण, 1 = प्रायोगिक स्थिति है, जिसका परिणाम अधिक होना चाहिए dv), और एक पूर्वापेक्षित, लेबल भी appropriate: इसके लिए परीक्षण किए गए परीक्षणों 1को प्रभाव दिखाना चाहिए, लेकिन परीक्षण कोडित 0हो सकते हैं नहीं, क्योंकि एक महत्वपूर्ण कारक गायब है।
मैंने प्रत्येक विषय के भीतर सहसंबद्ध मूल्यों को दर्शाते हुए subjectऔर इसके लिए target, dv14 यादृच्छिक समस्याओं को दर्शाते हुए , (प्रत्येक प्रतिभागी ने एक नियंत्रण और प्रत्येक समस्या का एक प्रयोगात्मक संस्करण दोनों) को शामिल करते हुए दो यादृच्छिक अंतरापृष्ठ भी शामिल किए हैं ।
library(lme4)
data = read.csv("data.csv")
null_model = lmer(dv ~ (1 | subject) + (1 | target), data = data)
mainfx_model = lmer(dv ~ condition + appropriate + (1 | subject) + (1 | target),
data = data)
interaction_model = lmer(dv ~ condition + appropriate + condition*appropriate +
(1 | subject) + (1 | target), data = data)
summary(interaction_model)
आउटपुट:
## Linear mixed model fit by REML ['lmerMod']
## ...excluded for brevity....
## Random effects:
## Groups Name Variance Std.Dev.
## subject (Intercept) 0.006594 0.0812
## target (Intercept) 0.000557 0.0236
## Residual 0.210172 0.4584
## Number of obs: 690, groups: subject, 38; target, 14
##
## Fixed effects:
## Estimate Std. Error t value
## (Intercept) 0.2518 0.0501 5.03
## conditioncontrol 0.0579 0.0588 0.98
## appropriate -0.0358 0.0595 -0.60
## conditioncontrol:appropriate -0.1553 0.0740 -2.10
##
## Correlation of Fixed Effects:
## ...excluded for brevity.
एनोवा तब interaction_modelसे काफी बेहतर फिट दिखाई देती है mainfx_model, जिससे मैं यह निष्कर्ष निकालता हूं कि एक महत्वपूर्ण बातचीत मौजूद है (पी = .035)।
anova(mainfx_model, interaction_model)
आउटपुट:
## ...excluded for brevity....
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## mainfx_model 6 913 940 -450 901
## interaction_model 7 910 942 -448 896 4.44 1 0.035 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
वहां से, मैं उस डेटा के एक सबसेट को अलग करता हूं जिसके लिए appropriateआवश्यकता पूरी होती है (यानी, appropriate = 1), और इसके लिए एक अशक्त मॉडल फिट बैठता है, और एक conditionप्रभाव के रूप में एक मॉडल, एनोवा का उपयोग कर दो मॉडल की तुलना फिर से, और लो, यह पाते हैं कि conditionएक महत्वपूर्ण भविष्यवक्ता है।
good_data = data[data$appropriate == 1, ]
good_null_model = lmer(dv ~ (1 | subject) + (1 | target), data = good_data)
good_mainfx_model = lmer(dv ~ condition + (1 | subject) + (1 | target), data = good_data)
anova(good_null_model, good_mainfx_model)
आउटपुट:
## Data: good_data
## models:
## good_null_model: dv ~ (1 | subject) + (1 | target)
## good_mainfx_model: dv ~ condition + (1 | subject) + (1 | target)
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## good_null_model 4 491 507 -241 483
## good_mainfx_model 5 487 507 -238 477 5.55 1 0.018 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
lme4: stats.stackexchange.com/questions/118416/...