स्वतंत्रता की समान संख्या के साथ मिश्रित प्रभाव वाले मॉडल की तुलना करना


15

मेरा एक प्रयोग है जिसे मैं यहाँ सार करने की कोशिश करूँगा। कल्पना कीजिए कि मैं आपके सामने तीन सफेद पत्थरों को उछालता हूं और आपको उनकी स्थिति के बारे में निर्णय लेने के लिए कहता हूं। मैं पत्थरों के गुणों और आपकी प्रतिक्रिया को रिकॉर्ड करता हूं। मैं कई विषयों पर ऐसा करता हूं। मैं दो मॉडल तैयार करता हूं। एक यह है कि आपके लिए निकटतम पत्थर आपकी प्रतिक्रिया की भविष्यवाणी करता है, और दूसरा यह है कि पत्थरों का ज्यामितीय केंद्र आपकी प्रतिक्रिया की भविष्यवाणी करता है। इसलिए, RI में lmer का उपयोग करके लिख सकते हैं।

mNear   <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center  + (1|subject), REML = FALSE)

अद्यतन और बदलें - अधिक प्रत्यक्ष संस्करण जिसमें कई सहायक टिप्पणियां शामिल हैं

मै प्रयास कर सका

anova(mNear, mCenter)

जो गलत है, निश्चित रूप से, क्योंकि वे नेस्टेड नहीं हैं और मैं वास्तव में उनकी उस तरह से तुलना नहीं कर सकता। मैं एक त्रुटि फेंकने के लिए aova.mer की उम्मीद कर रहा था लेकिन यह नहीं हुआ। लेकिन संभव घोंसले के शिकार जो मैं यहां कोशिश कर सकता हूं वह स्वाभाविक नहीं है और अभी भी मुझे कुछ हद तक विश्लेषणात्मक बयानों के साथ छोड़ देता है। जब मॉडल स्वाभाविक रूप से नेस्टेड होते हैं (जैसे रैखिक पर द्विघात) तो परीक्षण केवल एक ही तरीका है। लेकिन इस मामले में असममित निष्कर्षों का क्या मतलब होगा?

उदाहरण के लिए, मैं एक मॉडल तीन बना सकता है:

mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)

तब मैं एनोवा कर सकता हूं।

anova(mCenter, mBoth)
anova(mNearest, mBoth)

यह करना उचित है और अब मुझे पता चला है कि केंद्र निकटतम प्रभाव (दूसरी कमान) में जुड़ जाता है लेकिन BIC वास्तव में ऊपर जाता है जब निकटतम को केंद्र में जोड़ा जाता है (निचले पार्सिमनी के लिए सुधार)। यह पुष्टि करता है कि क्या संदेह था।

लेकिन क्या यह पर्याप्त है? और क्या यह मेला जब केंद्र और निकटतम इतने उच्च सहसंबंधित हैं?

जब व्याख्यात्मक चर (स्वतंत्रता की डिग्री) को जोड़ने और घटाने के बारे में नहीं है, तो क्या मॉडल की तुलनात्मक रूप से तुलना करने का एक बेहतर तरीका है?


आपके मॉडल नेस्टेड नहीं हैं, दोनों के बीच LRT का उपयोग करने के लिए औचित्य क्या होगा?
CHL

आपकी टिप्पणी के अनुसार बाकी चीजें
जॉन

जवाबों:


9

फिर भी, आप अपने निश्चित प्रभावों के लिए आत्मविश्वास अंतराल की गणना कर सकते हैं, और एआईसी या बीआईसी की रिपोर्ट कर सकते हैं (उदाहरण के लिए सन्न एट अल। , स्टैट मेड 1997 16: 2349)।

अब, आप Wagenmakers 'अल' से पैरामीट्रिक बूटस्ट्रैप का उपयोग करके मॉडल की नकल का आकलन करने में रुचि ले सकते हैं । जो दो प्रतिस्पर्धी मॉडलों की गुणवत्ता का आकलन करने के बारे में आपके प्रारंभिक प्रश्न को अधिक बारीकी से लगता है।

अन्यथा, मेरे मन में आने वाले LMM में स्पष्ट रूप से विचरण के उपायों के बारे में दो पेपर हैं:

लेकिन शायद बेहतर विकल्प हैं।


11

रॉनफ के सुझाव के बाद नॉनस्टेड मॉडल पर एक संभावना अनुपात परीक्षण के लिए वुओंग द्वारा एक और हालिया पेपर की ओर जाता है। यह KLIC (Kullback-Leibler Information Criterion) पर आधारित है जो कि AIC के समान है जो कि KL दूरी को कम करता है। लेकिन यह परिकल्पना के लिए एक संभाव्य विनिर्देश स्थापित करता है ताकि LRT के उपयोग से अधिक राजसी तुलना हो। कॉक्स और वुओंग परीक्षणों का एक अधिक सुलभ संस्करण क्लार्क एट अल द्वारा प्रस्तुत किया गया है; विशेष रूप से देखें चित्र 3 जो वीयूंग LRT परीक्षण की गणना के लिए एल्गोरिथ्म प्रस्तुत करता है।

ऐसा लगता है कि अन्य मॉडलों में वुंग परीक्षण के आर कार्यान्वयन हैं, लेकिन लमर नहीं। फिर भी, ऊपर उल्लिखित रूपरेखा एक को लागू करने के लिए पर्याप्त होनी चाहिए। मुझे नहीं लगता कि आप गणना के लिए आवश्यकतानुसार प्रत्येक डेटा बिंदु पर lmer से मूल्यांकन की संभावना प्राप्त कर सकते हैं। Sig-ME पर एक नोट में, डगलस बेट्स के पास कुछ संकेत हैं जो सहायक हो सकते हैं (विशेष रूप से, विगनेट वह उल्लेख है)।


पुराने

एक अन्य विकल्प भविष्यवाणी सटीकता की परीक्षा में मॉडल से फिट किए गए मूल्यों पर विचार करना है। विलियम्स-क्लॉट सांख्यिकी यहां उपयुक्त हो सकती है। मूल दृष्टिकोण दो मॉडलों से लगे मूल्यों के एक रैखिक संयोजन के खिलाफ वास्तविक मूल्यों को फिर से हासिल करना और ढलान का परीक्षण करना है:

पहला पेपर परीक्षण (और अन्य) का वर्णन करता है, जबकि दूसरे में एक अर्थमितीय पैनल मॉडल में इसका एक आवेदन है।


lmerAIC का उपयोग और तुलना करते समय, फ़ंक्शन का डिफ़ॉल्ट REML विधि (प्रतिबंधित अधिकतम संभावना) का उपयोग करना है। यह कम पक्षपाती अनुमान प्राप्त करने के लिए ठीक है, लेकिन जब मॉडल की तुलना करते हैं, तो आपको फिर से फिट होना चाहिए REML=FALSEजिसके साथ फिटिंग के लिए अधिकतम संभावना विधि का उपयोग करता है। पिन्हीयरो / बेट्स किताब कुछ शर्त है जिसके तहत AIC / या तो REML या एमएल के साथ संभावना तुलना करने के लिए यह ठीक है का उल्लेख है, और इन बहुत अच्छी तरह से अपने मामले में आवेदन कर सकते हैं। हालांकि, सामान्य सिफारिश बस फिर से फिट करने के लिए है। उदाहरण के लिए, डगलस बेट्स की पोस्ट यहाँ देखें:


मैंने यह नहीं बताया कि मैं REML = FALSE के साथ फिट रहा हूं। मैं अभी भी एक विचित्र स्थिति में हूं। हालांकि ... एआईसी मुझे यादृच्छिक प्रभावों सहित पूरी संभावना का माप देता है। यह एक बड़ा घटक है। और निश्चित रूप से, एआईसी के बिल्कुल समान होने की संभावना नहीं है। इसलिए, यह बताने की नासमझी है कि यह बताने का कुछ विश्लेषणात्मक तरीका है कि यह कितना बड़ा है।
जॉन

@ जॉन इस व्याख्यान में REML बनाम ML और AIC के बारे में दिलचस्प बिंदु पर प्रकाश डाला गया (और जो आपने कहा, जॉन की ओर इशारा करता है ), j.mp/bhUVNt । GLMM की Bolker की समीक्षा पर एक नज़र लेने के लिए भी लायक है: j.mp/cAepqA
०l:

4

ड्रॉक्स द्वारा एक पेपर होता है जो अलग-अलग [अनावश्यक] मॉडलों के परीक्षण पर चर्चा करता है। यह कुछ उदाहरणों पर विचार करता है, जो मिश्रित मॉडल की जटिलता को जन्म नहीं देते हैं। [जैसा कि आर कोड के साथ मेरी सुविधा सीमित है, मुझे यकीन नहीं है कि आपके मॉडल क्या हैं।]

एल्थो कॉक्स का पेपर आपकी समस्या को सीधे हल नहीं कर सकता है, यह दो संभावित तरीकों से मददगार हो सकता है।

  1. आप अपने पेपर के उद्धरणों के लिए Google विद्वान खोज सकते हैं, यह देखने के लिए कि बाद में इस तरह के परिणाम क्या चाहते हैं।

  2. यदि आप एक विश्लेषणात्मक तुला के हैं, तो आप अपनी समस्या के लिए कॉक्स विधि को लागू करने का प्रयास कर सकते हैं। [शायद बेहोश दिल के लिए नहीं।]

btw - कॉक्स दो मॉडलों को एक बड़े में मिलाने के ब्रोकेड के विचार को पारित करने में उल्लेख करता है। वह इस बात का पीछा नहीं करता है कि कोई भी यह तय करेगा कि कौन सा मॉडल बेहतर है, लेकिन वह टिप्पणी करता है कि भले ही मॉडल बहुत अच्छा न हो, संयुक्त मॉडल डेटा को पर्याप्त रूप से फिट कर सकता है। [यह आपकी स्थिति में स्पष्ट नहीं है कि एक संयुक्त मॉडल समझ में आएगा।]


3

मुझे आपके कोड को पार्स करने के लिए आर अच्छी तरह से नहीं पता है लेकिन यहां एक विचार है:

एक मॉडल का अनुमान लगाएं जहां आपके पास दोनों केंद्र हैं और कोवरिएट्स के रूप में (इस mBoth को कॉल करें)। तब mCenter और mNear mBoth में नेस्टेड होते हैं और mCenter और mNear के सापेक्ष प्रदर्शन की तुलना करने के लिए आप एक बेंचमार्क के रूप में mBoth का उपयोग कर सकते हैं।


1
मैं सोच रहा था कि यह उचित नहीं होगा क्योंकि दोनों वास्तव में अत्यधिक सहसंबद्ध होंगे। चूंकि केंद्र दूर है, इसलिए निकट की प्रवृत्ति होगी।
जॉन

@ जॉन गुड पॉइंट।

मुझे लगता है कि आपकी बात भी अच्छी है ... मुझे यकीन नहीं है कि यह मायने रखता है। मुझे पता है कि यह उच्च है, लेकिन 0.8 के तहत ... अभी भी विश्लेषण करने योग्य है।
जॉन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.