मैं lme4::glmer()
द्विआधारी सामान्यीकृत मिश्रित मॉडल (GLMM) को आश्रित चर के साथ उपयोग करने की कोशिश कर रहा हूं जो कि बाइनरी नहीं है, लेकिन शून्य और एक के बीच एक निरंतर चर है। इस चर को एक संभावना के रूप में सोच सकते हैं; वास्तव में यह मानव विषयों (एक प्रयोग है कि मैं विश्लेषण करने में मदद करता है) द्वारा रिपोर्ट के रूप में संभावना है। यानी यह नहीं एक "असतत" अंश है, लेकिन एक निरंतर चर।
मेरी glmer()
कॉल अपेक्षा के अनुरूप काम नहीं करती (नीचे देखें)। क्यों? मैं क्या कर सकता हूँ?
बाद में संपादित करें: नीचे दिए गए मेरे उत्तर इस प्रश्न के मूल संस्करण से अधिक सामान्य हैं, इसलिए मैंने इस प्रश्न को और अधिक सामान्य होने के लिए संशोधित किया।
अधिक जानकारी
स्पष्ट रूप से न केवल बाइनरी डीवी के लिए, बल्कि शून्य और एक के बीच निरंतर डीवी के लिए भी लॉजिस्टिक रिग्रेशन का उपयोग करना संभव है। दरअसल, जब मैं दौड़ता हूं
glm(reportedProbability ~ a + b + c, myData, family="binomial")
मुझे एक चेतावनी संदेश मिलता है
Warning message:
In eval(expr, envir, enclos) : non-integer #successes in a binomial glm!
लेकिन एक बहुत ही उचित फिट (सभी कारक स्पष्ट हैं, इसलिए मैं आसानी से जांच कर सकता हूं कि क्या मॉडल की भविष्यवाणी पूरे विषयों-साधनों के करीब है, और वे हैं)।
हालांकि, जो मैं वास्तव में उपयोग करना चाहता हूं वह है
glmer(reportedProbability ~ a + b + c + (1 | subject), myData, family="binomial")
यह मुझे समान चेतावनी देता है, एक मॉडल लौटाता है, लेकिन यह मॉडल स्पष्ट रूप से बहुत दूर है; निश्चित प्रभावों के अनुमान glm()
लोगों से और बहुत सारे विषय-साधनों से बहुत दूर हैं। (और मुझे कॉल glmerControl(optimizer="bobyqa")
में शामिल करने की आवश्यकता है glmer
, अन्यथा यह बिल्कुल भी नहीं है।)
glmmadmb(reportedProbability ~ a + b + c + (1 | subject), myData, family="beta")
, तो मुझे सही फिट और उचित आत्मविश्वास अंतराल मिलते हैं, लेकिन एक अभिसरण चेतावनी को विफल कर देता है: - / यह जानने की कोशिश करना कि पुनरावृत्तियों की संख्या कैसे बढ़ाई जाए। बीटा मेरे लिए काम कर सकता है क्योंकि मेरे पास DV = 0 या DV = 1 मामले नहीं हैं।
+ (1 | rowid)
अपने ग्लैमर कॉल को जोड़ने की कोशिश की और यह मेरे वजन विकल्प से स्वतंत्र स्थिर अनुमानों और स्थिर आत्मविश्वास अंतराल की पैदावार करता है (मैंने 100 और 500 की कोशिश की)। मैंने लॉजिट (रिपोर्टपिरैबिलिटी) पर लैमर चलाने की भी कोशिश की और मुझे लगभग यही बात मिली। तो दोनों समाधान अच्छी तरह से काम करने लगते हैं! Glmmadmb के साथ बीटा MM भी बहुत करीबी परिणाम देता है, लेकिन किसी कारण से पूरी तरह से एकाग्र नहीं हो पाता है और हमेशा के लिए चलता है। इन विकल्पों को सूचीबद्ध करने वाले उत्तर को पोस्ट करने पर विचार करें और थोड़ा अंतर और पेशेवरों / विपक्षों को समझाएं! (विश्वास अंतराल जो मैंने उल्लेख किया है, सभी वाल्ड हैं।)