मिश्रित प्रभाव मॉडल (मुख्य रूप से यादृच्छिक प्रभाव) की अनुमति तुलना


20

मैं R में lme4 पैकेज का उपयोग करते हुए मिश्रित प्रभावों को देख रहा हूं। मैं मुख्य रूप से lmerकमांड का उपयोग कर रहा हूं, इसलिए मैं अपने प्रश्न को उस सिंटैक्स का उपयोग करने वाले कोड के माध्यम से लिखूंगा । मुझे लगता है कि एक सामान्य आसान प्रश्न हो सकता है, क्या lmerसमान डेटासेट के आधार पर संभावना अनुपात का उपयोग करके निर्मित किसी भी दो मॉडल की तुलना करना ठीक है ? मेरा मानना ​​है कि इसका उत्तर "नहीं" होना चाहिए, लेकिन मैं गलत हो सकता हूं। मैंने इस बारे में परस्पर विरोधी जानकारी पढ़ी है कि क्या यादृच्छिक प्रभावों का एक ही होना है या नहीं और यादृच्छिक प्रभावों का क्या घटक है? इसलिए, मैं कुछ उदाहरण प्रस्तुत करूंगा। मैं उन्हें शब्द उत्तेजनाओं का उपयोग करते हुए बार-बार डेटा से ले जाऊंगा , शायद बैयेन (2008) की तरह कुछ व्याख्या करने में उपयोगी होगा।

मान लीजिए कि मेरे पास एक मॉडल है जहां दो निश्चित प्रभाव भविष्यवाणियां हैं, हम उन्हें ए, और बी, और कुछ यादृच्छिक प्रभाव ... शब्द और विषय कहेंगे जो उन्हें माना जाता है। मैं निम्नलिखित की तरह एक मॉडल का निर्माण कर सकता हूं।

m <- lmer( y ~ A + B + (1|words) + (1|subjects) )

(ध्यान दें कि मैंने जानबूझकर छोड़ दिया है data =और हम मानेंगे कि मैं हमेशा REML = FALSEस्पष्टता के लिए मायने रखता हूं )

अब, निम्नलिखित मॉडलों में, जो कि ऊपर वाले के लिए एक समान अनुपात के साथ तुलना करना ठीक है और जो नहीं हैं?

m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )              
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )                 
m5 <- lmer( y ~ A * B + (1|subjects) )   

मैं स्वीकार करता हूं कि इनमें से कुछ अंतरों की व्याख्या मुश्किल, या असंभव हो सकती है। लेकिन एक सेकंड के लिए अलग रख दें। मैं सिर्फ यह जानना चाहता हूं कि क्या यहां बदलाव में कुछ मौलिक है जो तुलना करने की संभावना को रोकता है। मैं यह भी जानना चाहता हूं कि क्या, यदि एलआर ठीक हैं, और एआईसी तुलना भी करते हैं।



(मैंने देखा कि आपने [परिकल्पना-परीक्षण] टैग को हटा दिया था, जिसे मैंने पहले जोड़ा था। ठीक है, आपके ऊपर, लेकिन मुझे लगता है कि यह उचित है: संभावना अनुपात परीक्षण स्पष्ट रूप से एक परिकल्पना परीक्षण प्रक्रिया है, और [मिश्रित-मॉडल] + [परिकल्पना-परीक्षण ] IMHO एक सूचनात्मक टैग संयोजन है, आँकड़े देखें ।stackexchange.com/questions/tagged/… )
अमीबा का कहना है कि मोनिका

एलआर से "परीक्षण" निकालने का संपादन किया। परीक्षण के बिना LRs की व्याख्या की जा सकती है और यह इसे AIC के समानांतर बनाता है और मेरे वास्तविक इरादे का बेहतर पालन करता है। यह बात बताने के लिए धन्यवाद।
जॉन

जवाबों:


13

अधिकतम संभावना का उपयोग करते हुए, इनमें से किसी की तुलना एआईसी के साथ की जा सकती है; अगर तय प्रभाव (एक ही हैं m1करने के लिए m4,) या तो REML या एमएल का उपयोग कर ठीक, REML साथ आमतौर पर पसंद है, लेकिन अगर वे अलग हैं, केवल एमएल इस्तेमाल किया जा सकता। हालांकि, व्याख्या आम तौर पर कठिन होती है जब दोनों निश्चित प्रभाव और यादृच्छिक प्रभाव बदल रहे हैं, इसलिए व्यवहार में, अधिकांश एक समय में केवल एक या दूसरे को बदलने की सलाह देते हैं।

संभावना अनुपात परीक्षण का उपयोग करना संभव है, लेकिन गड़बड़ है क्योंकि अगर एक विचरण घटक शून्य है, तो सामान्य ची-स्क्वेर सन्निकटन परीक्षण नहीं करता है। विवरण के लिए Aniko का जवाब देखें। (कुडो से अनिको दोनों के लिए प्रश्न को अधिक ध्यान से पढ़ने की तुलना में मैंने किया और मेरे मूल उत्तर को ध्यान से पढ़कर ध्यान दिया कि यह बिंदु चूक गया था! धन्यवाद!)

पिनहेरो / बेट्स क्लासिक संदर्भ है; यह nlmeपैकेज का वर्णन करता है, लेकिन सिद्धांत समान है। खैर, ज्यादातर वही; डौग बेट्स ने उस पुस्तक को लिखने के बाद से अपनी सिफारिशों को अनुमान में बदल दिया है और नई सिफारिशें lme4पैकेज में परिलक्षित होती हैं । लेकिन इससे भी ज्यादा मैं यहां आना चाहता हूं। एक अधिक पठनीय संदर्भ वीस (2005) है, मॉडलिंग अनुदैर्ध्य डेटा।


मॉडल एम 2 और एम 4 या एम 1 और एम 3 की तुलना अनुपात अनुपात परीक्षण के साथ नहीं की जा सकती है। वे नेस्टेड मॉडल नहीं हैं।
मैक्रों

उफ़, उस पकड़ने के लिए धन्यवाद, @ मैक्रो! संपादित देखें।
आरोन -

सवाल सिर्फ मॉडल की तुलना मॉडल एम से करने के बारे में था, एक दूसरे से नहीं। लेकिन फिर भी, क्या आप कह रहे हैं कि एआईसी की तुलना तब भी की जा सकती है, जब वह नस्टेड न हो? इस सवाल का जवाब विरोधाभासी प्रतीत होता है।
जॉन

@ जॉन, मैं उन उत्तरों को पढ़ता हूं लेकिन चूक गया जहां यह एआईसी और गैर-नेस्टेड पर चर्चा करता है। मुझे पूरा यकीन है कि यह ठीक है, लेकिन क्या आप मुझे उत्तर में उस बिंदु पर अधिक सटीक सूचक दे ​​सकते हैं?
हारून -

मैंने उत्तर को अस्वीकार कर दिया है, क्योंकि आप संभावना अनुपात के परीक्षण की योग्यता के बारे में गलत (या कम से कम भ्रामक) हैं।
ऐकौ

12

मूल्यांकन के अनुपात का परीक्षण करते समय आपको सावधान रहना होगा कि क्या एक विचरण घटक 0 ( mबनाम m- m4) है, क्योंकि विशिष्ट ची-वर्ग सन्निकटन लागू नहीं होता है। कारण यह है कि अशक्त-परिकल्पना , और यह पैरामीटर स्थान की सीमा पर है, इसलिए शास्त्रीय परिणाम लागू नहीं होते हैं।σ2=0

इन स्थितियों में LRT के वितरण का एक पूरा सिद्धांत है (उदाहरण के लिए, स्व और लिआंग, 1987 [1]), हालांकि यह जल्दी से गन्दा हो जाता है। केवल एक पैरामीटर की सीमा (जैसे, mबनाम m2) को मारने के विशेष मामले के लिए, संभावना अनुपात में एक वितरण है, जिसका अर्थ है कि आपको अपने p को आधा करना होगा 2_1 के आधार पर । χ12χ12+12χ02χ12

हालांकि, जैसा कि @Aaron ने कहा, कई विशेषज्ञ इस तरह की संभावना अनुपात परीक्षण करने की सलाह नहीं देते हैं। संभावित विकल्प सूचना मानदंड (एआईसी, बीआईसी, आदि) या LRT बूटस्ट्रैपिंग हैं।

[१] स्व, एसजी और लियांग, के। विषम गुणों के अधिकतम संभावना अनुमानक और गैरमानक स्थितियों के तहत संभावना अनुपात परीक्षण जे आमेर। सांख्यिकीविद। असोक।, 1987, 82, 605-610।


1
LR जानकारी के लिए धन्यवाद। उदाहरण के लिए मॉडल बनाते समय मैंने LR सीमा मुद्दे के बारे में वास्तव में नहीं सोचा था। मैंने सिर्फ यह देखा कि आपके उत्तर में यह स्पष्ट नहीं है कि क्या आपकी सिफारिशें विभिन्न निश्चित प्रभावों वाले मॉडल की तुलना में सरल मामलों पर लागू होती हैं (एमएल अनुमानित पाठ्यक्रम)।
जॉन

नहीं, यह समस्या केवल तभी आती है जब विचरण घटकों का परीक्षण किया जाता है, न कि निश्चित प्रभावों का।
हारून - मोनिका
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.