मुझे एक डेटा सेट मिला है जिसमें कुछ मुट्ठी भर साइटों से "टूटी हुई छड़ी" मासिक मामला मायने रखता है। मैं दो अलग-अलग तकनीकों से एकल सारांश अनुमान लगाने की कोशिश कर रहा हूं:
तकनीक 1: 0/1 सूचक चर के साथ एक पॉइसन GLM के साथ "टूटी हुई छड़ी" को फिट करें, और समय में प्रवृत्तियों के लिए नियंत्रण करने के लिए एक समय और समय ^ 2 चर का उपयोग करें। कि 0/1 इंडिकेटर वैरिएबल का अनुमान और एसई क्षणों की तकनीक के एक बहुत ही सीधे और नीचे की विधि का उपयोग करके, या "बेइज़ियन" अनुमान प्राप्त करने के लिए आर में tlnise पैकेज का उपयोग करके पूल कर रहे हैं। यह पेंग और डोमिनिकी वायु प्रदूषण डेटा के साथ, लेकिन कम साइटों (~ एक दर्जन) के समान है।
तकनीक 2: समय के रुझानों के लिए साइट-विशिष्ट नियंत्रण के कुछ का त्याग करें और एक रैखिक मिश्रित मॉडल का उपयोग करें। विशेष रूप से:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
मेरे प्रश्न में इन त्रुटियों से निकलने वाली मानक त्रुटियाँ शामिल हैं। तकनीक 1 की मानक त्रुटि, जो वास्तव में मासिक समय सेट के बजाय एक साप्ताहिक का उपयोग कर रही है और इस प्रकार अधिक सटीकता होनी चाहिए , विधि के दृष्टिकोण के लिए ~ 0.206 के मानक त्रुटि और tlnise के लिए ~ 0.306 पर मानक त्रुटि है।
लैमर विधि ~ 0.09 की मानक त्रुटि देती है। प्रभाव का अनुमान काफी करीब है, इसलिए ऐसा नहीं लगता है कि वे अलग-अलग सारांश अनुमानों पर शून्य कर रहे हैं क्योंकि मिश्रित मॉडल बहुत अधिक कुशल है।
क्या ऐसा कुछ करना उचित है? यदि हां, तो मिश्रित मॉडल इतने अधिक कुशल क्यों हैं? क्या यह सामान्य घटना है, या इस मॉडल का एक विशिष्ट परिणाम है?