मान लीजिए मेरे पास 10 छात्र हैं, जो प्रत्येक 20 गणित की समस्याओं को हल करने का प्रयास करते हैं। समस्याओं को सही या गलत (लॉन्गडेटा) में स्कोर किया जाता है और प्रत्येक छात्र के प्रदर्शन को एक सटीकता माप (उपडेटा में) द्वारा संक्षेपित किया जा सकता है। नीचे दिए गए मॉडल 1, 2 और 4 अलग-अलग परिणाम प्रस्तुत करते हैं, लेकिन मैं समझता हूं कि वे एक ही काम कर रहे हैं। वे अलग-अलग परिणाम क्यों दे रहे हैं? (मैंने संदर्भ के लिए मॉडल 3 शामिल किया है।)
library(lme4)
set.seed(1)
nsubjs=10
nprobs=20
subjdata = data.frame('subj'=rep(1:nsubjs),'iq'=rep(seq(80,120,10),nsubjs/5))
longdata = subjdata[rep(seq_len(nrow(subjdata)), each=nprobs), ]
longdata$correct = runif(nsubjs*nprobs)<pnorm(longdata$iq/50-1.4)
subjdata$acc = by(longdata$correct,longdata$subj,mean)
model1 = lm(logit(acc)~iq,subjdata)
model2 = glm(acc~iq,subjdata,family=gaussian(link='logit'))
model3 = glm(acc~iq,subjdata,family=binomial(link='logit'))
model4 = lmer(correct~iq+(1|subj),longdata,family=binomial(link='logit'))
library(car)
लॉग फ़ंक्शन के लिए आवश्यक है।
library(betareg)
model5 = betareg(acc~scale(iq),subjdata)