अर्थमिति में "यादृच्छिक प्रभाव मॉडल" वास्तव में अर्थमिति के बाहर मिश्रित मॉडल से कैसे संबंधित है?


56

मुझे लगता है कि अर्थमिति में "यादृच्छिक प्रभाव मॉडल" अर्थमिति के बाहर "यादृच्छिक अवरोधन के साथ मिश्रित मॉडल" से मेल खाता है, लेकिन अब मुझे यकीन नहीं है। क्या यह?

इकोनोमेट्रिक्स मिश्रित मॉडल पर साहित्य से कुछ हद तक "निश्चित प्रभाव" और "यादृच्छिक प्रभाव" जैसे शब्दों का उपयोग करता है, और यह एक विशेष भ्रम का कारण बनता है। आइए एक साधारण स्थिति पर विचार करें जहां रैखिक पर निर्भर करता है लेकिन माप के विभिन्न समूहों में एक अलग अवरोधन के साथ है:x yx

yit=βxit+ui+ϵit.

यहाँ प्रत्येक इकाई / समूह को अलग-अलग समय-बिंदुओं पर देखा गया । अर्थशास्त्री इसे "पैनल डेटा" कहते हैं।टीit

  • मिश्रित मॉडल शब्दावली में, हम को एक निश्चित प्रभाव के रूप में या एक यादृच्छिक प्रभाव के रूप में सकते हैं (इस मामले में, यह यादृच्छिक अवरोधन है)। इसे नियत का कि चुकता त्रुटि (यानी डमी समूह चर के साथ प्रतिगमन चल रहा है) को कम करने के लिए फिटिंग और । इसे यादृच्छिक मानने का अर्थ है कि हम इसके अतिरिक्त यह मानते हैं कि और प्रत्येक को फिट करने के बजाय और को फिट करने के लिए अधिकतम संभावना का उपयोग करें । यह "आंशिक पूलिंग" प्रभाव की ओर जाता है, जहां अनुमान उनके माध्य की ओर सिकुड़ जाते हैं ।बीटा यू मैं यू मैं ~ एन ( यू 0 , σ 2 यू ) यू 0 σ 2 यू यू मैं यू मैं यू 0uiβ^u^iuiN(u0,σu2)u0σu2uiu^iu^0

    R formula when treating group as fixed:    y ~ x + group
    R formula when treating group as random:   y ~ x + (1|group)
  • अर्थमिति शब्दावली में, हम इस पूरे मॉडल को एक निश्चित प्रभाव मॉडल के रूप में या एक यादृच्छिक प्रभाव मॉडल के रूप में मान सकते हैं। पहला विकल्प ऊपर दिए गए निश्चित प्रभाव के बराबर है (लेकिन अर्थमिति के पास इस मामले में का अनुमान लगाने का अपना तरीका है , जिसे कहा जाता है )। मैं सोचता था कि दूसरा विकल्प ऊपर यादृच्छिक प्रभाव के बराबर है; जैसे @JiebiaoWang ने अपने अत्यधिक उत्तोलित उत्तर में , यादृच्छिक प्रभावों-, निश्चित प्रभावों- और सीमांत मॉडल के बीच अंतर क्या है? कहता है कि β"within" estimator

    अर्थमिति में, यादृच्छिक-प्रभाव मॉडल केवल यादृच्छिक अवरोधन मॉडल को संदर्भित कर सकता है जैसे कि बायोस्टैटिस्टिक्स में

ठीक है --- आइए हम परीक्षण करें कि क्या यह समझ सही है। यहाँ कुछ यादृच्छिक डेटा @ChristophHanck द्वारा उत्पन्न किया गया है जो उनके जवाब में तय प्रभाव, यादृच्छिक प्रभाव और मिश्रित प्रभावित मॉडल के बीच अंतर है? (मैं आरबीई का उपयोग नहीं करने वालों के लिए यहां डेटा पास्टबिन पर डालता हूं ):

यहाँ छवि विवरण दर्ज करें

@ क्रिस्टोफ अर्थमिति दृष्टिकोण का उपयोग करते हुए दो फिट बैठता है:

fe <- plm(stackY~stackX, data = paneldata, model = "within")
re <- plm(stackY~stackX, data = paneldata, model = "random")

पहले वाला बीटा के अनुमान के बराबर है -1.0451, दूसरा वाला 0.77031(हाँ, सकारात्मक!)। मैंने इसके साथ प्रजनन करने की कोशिश की lmऔर lmer:

l1 = lm(stackY ~ stackX + as.factor(unit), data = paneldata)
l2 = lmer(stackY ~ stackX + (1|as.factor(unit)), data = paneldata)

-1.045ऊपर के भीतर के अनुमानक के साथ सही समझौते में पहली पैदावार । ठंडा। लेकिन दूसरी पैदावार -1.026, जो यादृच्छिक प्रभाव अनुमानक से मीलों दूर है। हे? क्या हो रहा है? वास्तव में, क्या है plmयहां तक कि कर , जब साथ कहा जाता है model = "random"?

यह जो कुछ भी कर रहा है, क्या किसी को मिश्रित मॉडल के नजरिए से समझा जा सकता है?

और जो कुछ भी वह कर रहा है उसके पीछे अंतर्ज्ञान क्या है? मैं अर्थमिति के कुछ स्थानों में पढ़ता हूं कि यादृच्छिक प्रभाव अनुमानक निश्चित प्रभाव अनुमानक के बीच एक भारित औसत है और "between" estimatorजो अधिक या कम प्रतिगमन ढलान है यदि हम मॉडल में समूह पहचान को शामिल नहीं करते हैं (यह अनुमान इस में दृढ़ता से सकारात्मक है मामला, आसपास 4।) जैसे @Andy यहां लिखते हैं :

यादृच्छिक प्रभाव अनुमानक तब आपके डेटा की भिन्नता के बीच और भीतर एक मैट्रिक्स भारित औसत का उपयोग करता है। [...] यह यादृच्छिक प्रभावों को अधिक कुशल बनाता है [।]

क्यों? हम इस भारित औसत को क्यों चाहेंगे? और विशेष रूप से, हम एक मिश्रित मॉडल चलाने के बजाय इसे क्यों चाहेंगे?


8
वाह, 20+ अपवोट्स और 24 घंटे से भी कम समय में छह ज्ञानवर्धक उत्तर, लेकिन ये सभी विचार के अर्थमितीय पक्ष पर केंद्रित हैं। कोई भी जवाब मिश्रित मॉडल से अब तक संबंध नहीं बनाता है।
अमीबा का कहना है मोनिका

अपने आप के लिए नोट: तुलना people.stern.nyu.edu/wgreene/Econometrics/Mundlak-1978.pdf Gelman और Bafumi कागज के साथ: stat.columbia.edu/~gelman/research/unpublished/...
अमीबा का कहना है कि

जवाबों:


16

सारांश: अर्थमिति में "यादृच्छिक-प्रभाव मॉडल" और एक "यादृच्छिक अवरोधन मिश्रित मॉडल" वास्तव में एक ही मॉडल हैं, लेकिन वे अलग-अलग तरीकों से अनुमानित हैं। अर्थमिति तरीका FGLS का उपयोग करना है, और मिश्रित मॉडल तरीका ML का उपयोग करना है। FGLS करने के विभिन्न एल्गोरिदम हैं, और उनमें से कुछ (इस डेटासेट पर) ऐसे परिणाम उत्पन्न करते हैं जो एमएल के बहुत करीब हैं।


1. में अनुमान तरीकों के बीच अंतर plm

मैं पर मेरे परीक्षण के साथ जवाब देंगे plm(..., model = "random")और lmer(), @ChristophHanck द्वारा उत्पन्न डेटा का उपयोग कर।

पीएलएम पैकेज मैनुअल के अनुसार , इसके लिए चार विकल्प हैं random.method: यादृच्छिक प्रभाव मॉडल में विचरण घटकों के लिए अनुमान की विधि। @amoeba ने डिफ़ॉल्ट swar(स्वामी और अरोड़ा, 1972) का उपयोग किया।

यादृच्छिक प्रभाव मॉडल के लिए, परिवर्तन पैरामीटर के चार अनुमानक "स्वार" (स्वमी और अरोरा (1972)) (डिफ़ॉल्ट), "अमेमिया" (अमेमिया (1971)), "वल्हस" ( वालेस और हुसैन (1969), या "नर्लोव" (नेरलोव (1971))।

मैंने एक ही डेटा का उपयोग करके सभी चार विकल्पों का परीक्षण किया, जिसके लिए एक त्रुटि हो रही हैamemiya , और चर के लिए तीन पूरी तरह से अलग गुणांक अनुमान है stackX। उपयोग करने वाले random.method='nerlove'और 'अमेयिया' लगभग lmer()-1.029 और -1.025 बनाम -1.026 के बराबर हैं। वे भी "निश्चित-प्रभाव" मॉडल में प्राप्त से बहुत अलग नहीं हैं, -1.045।

# "amemiya" only works using the most recent version:
# install.packages("plm", repos="http://R-Forge.R-project.org")

re0 <- plm(stackY~stackX, data = paneldata, model = "random") #random.method='swar'
re1 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='amemiya')
re2 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='walhus')
re3 <- plm(stackY~stackX, data = paneldata, model = "random",  random.method='nerlove')
l2  <- lmer(stackY~stackX+(1|as.factor(unit)), data = paneldata)

coef(re0)     #    (Intercept)   stackX    18.3458553   0.7703073 
coef(re1)     #    (Intercept)   stackX    30.217721   -1.025186 
coef(re2)     #    (Intercept)   stackX    -1.15584     3.71973 
coef(re3)     #    (Intercept)   stackX    30.243678   -1.029111 
fixef(l2)     #    (Intercept)   stackX    30.226295   -1.026482 

दुर्भाग्य से मेरे पास अभी समय नहीं है, लेकिन इच्छुक पाठक चार अनुमानों को पा सकते हैं, उनकी अनुमान प्रक्रियाओं की जांच करने के लिए। यह पता लगाने में बहुत मदद मिलेगी कि वे ऐसा क्यों करते हैं। मुझे उम्मीद है कि कुछ मामलों के लिए, ट्रांसफ़ॉर्म किए गए डेटा plmका उपयोग करने वाली आकलन प्रक्रिया में उपयोग की lm()जाने वाली अधिकतम संभावना प्रक्रिया के बराबर होना चाहिए lmer()

2. जीएलएस और एमएल के बीच तुलना

plmपैकेज के लेखकों ने अपने पेपर की धारा 7 में दोनों की तुलना की: यवेस क्रोइसैंट और जियोवनी मिलो, 2008, आर में डेटा पैनल अर्थमिति: प्लम पैकेज

अर्थमिति ज्यादातर गैर-प्रयोगात्मक डेटा के साथ सौदा करती है। विनिर्देश प्रक्रियाओं और प्रक्षेपीकरण परीक्षण पर बहुत जोर दिया जाता है। मॉडल विनिर्देश इसलिए बहुत सरल होते हैं, जबकि रजिस्टरों की एंडोजेनिटी, त्रुटियों में निर्भरता संरचनाओं और सामान्यता से विचलन के तहत आकलनकर्ताओं की मजबूती में बहुत ध्यान दिया जाता है। पसंदीदा दृष्टिकोण अक्सर अर्ध या गैर-पैरामीट्रिक होता है, और हेटेरोसेडासिटी-सुसंगत तकनीक अनुमान और परीक्षण दोनों में मानक अभ्यास बन रहे हैं।

इन सभी कारणों के लिए, [...] अर्थमिति में पैनल मॉडल का अनुमान ज्यादातर ऐटकेन के प्रमेय के आधार पर सामान्यीकृत कम से कम वर्गों के ढांचे में पूरा किया जाता है [...]। इसके विपरीत, में अनुदैर्ध्य डेटा मॉडल nlmeऔर lme4(प्रतिबंधित या अप्रतिबंधित) अधिकतम संभावना से अनुमान है। [...]

अर्थमितीय जीएलएस दृष्टिकोण में मानक रैखिक बीजगणित द्वारा कम्प्यूटेशनल समाधानों को बंद कर दिया गया है, हालांकि बाद वाले कभी-कभी मशीन पर कम्प्यूटेशनल रूप से भारी हो सकते हैं, अनुमानकर्ताओं के लिए भाव आमतौर पर सरल नहीं होते हैं। अनुदैर्ध्य मॉडल के एमएल अनुमान, इसके विपरीत, बिना फॉर्म समाधानों के बिना nonlinear कार्यों के संख्यात्मक अनुकूलन पर आधारित है और इस प्रकार सन्निकटन और अभिसरण मानदंड पर निर्भर है।


3. मिश्रित मॉडल पर अपडेट

मैं सराहना करता हूं कि @ChristophHanck ने random.methodइस्तेमाल किए गए चार के बारे में गहन परिचय दिया plmऔर बताया कि उनके अनुमान इतने अलग क्यों हैं। @Amoeba द्वारा अनुरोध के अनुसार, मैं मिश्रित मॉडल (संभावना-आधारित) और GLS के साथ इसके संबंध पर कुछ विचार जोड़ूंगा।

संभावना-आधारित पद्धति आमतौर पर यादृच्छिक प्रभाव और त्रुटि शब्द दोनों के लिए वितरण मानती है। एक सामान्य वितरण धारणा का आमतौर पर उपयोग किया जाता है, लेकिन कुछ अध्ययनों को गैर-सामान्य वितरण भी माना जाता है। मैं एक यादृच्छिक अवरोधन मॉडल के लिए @ ChristophHanck की का पालन करूंगा, और असंतुलित डेटा को अनुमति , अर्थात, ।T=ni

मॉडल with ।

yit=xitβ+ηi+ϵiti=1,,m,t=1,,ni
ηiN(0,ση2),ϵitN(0,σϵ2)

प्रत्येक , प्रत्येक , के लिए तो लॉग- फंक्शनi

yiN(Xiβ,Σi),Σi=ση21ni1ni+σϵ2Ini.
const12ilog|Σi|12i(yiXiβ)Σi1(yiXiβ).

जब सभी प्रकारों को ज्ञात किया जाता है, जैसा कि और वेयर (1982) में दिखाया गया है, तो MLE जो GLS बराबर है @ChristophHanck द्वारा प्राप्त किया गया। तो मुख्य अंतर भिन्नताओं के अनुमान में है। यह देखते हुए कि कोई बंद-रूप समाधान नहीं है, कई दृष्टिकोण हैं:βआर

β^=(iXiΣi1Xi)1(iXiΣi1yi),
β^RE
  • अनुकूलन एल्गोरिदम का उपयोग करते हुए लॉग-लाइबिलिटी फ़ंक्शन का सीधे अधिकतमकरण;
  • उम्मीद-मैक्सिमाइजेशन (ईएम) एल्गोरिदम: बंद-फॉर्म समाधान मौजूद हैं, लेकिन लिए अनुमानक में यादृच्छिक अवरोधन के अनुभवजन्य बायेसियन अनुमान शामिल हैं;β
  • उपरोक्त दो का एक संयोजन, एक्सपेक्टेशन / कंडिशनल मैक्सिमाइजेशन एअरलाइन (ECME) एल्गोरिथ्म (शेफर, 1998; R पैकेज lmm)। एक अलग parameterization के साथ, के लिए बंद कर फार्म समाधान (ऊपर के रूप में) और मौजूद हैं। समाधान को रूप में लिखा जा सकता है। जहां को रूप में परिभाषित किया गया है और एक EM ढांचे में अनुमान लगाया जा सकता है।βσϵ2σϵ2
    σϵ2=1inii(yiXiβ^)(ξ^1ni1ni+Ini)1(yiXiβ^),
    ξση2/σϵ2

सारांश में, MLE की वितरण धारणाएं हैं, और यह एक पुनरावृत्ति एल्गोरिथ्म में अनुमानित है। MLE और GLS के बीच मुख्य अंतर भिन्नताओं के आकलन में है।

क्रोइसैंट और मिलो (2008) ने बताया कि

सामान्यता के तहत, होमोसकेडसिटी और त्रुटियों का कोई सीरियल सहसंबंध नहीं है, ओएलएस भी अधिकतम संभावना अनुमानक हैं, अन्य सभी मामलों में महत्वपूर्ण अंतर हैं।

मेरी राय में, वितरण धारणा के लिए, जैसे पैरामीट्रिक और गैर-पैरामीट्रिक दृष्टिकोणों के बीच का अंतर, MLE अधिक कुशल होगा जब धारणा धारण करेगा, जबकि GLS अधिक मजबूत होगा।


मुझे संदेह होगा कि त्रुटि संदेश के साथ समस्या किसी तरह मेरे लिए वैक्टर के रूप में चर उत्पन्न करने से संबंधित है? शायद plm डेटा को अलग तरह से संग्रहित करना पसंद करता है?
क्रिस्टोफ हनक

1
nerloveयहां अच्छा काम करता है, लेकिन असंतुलित पैनलों के लिए लागू नहीं किया जाता है, जैसा कि मैंने पिछले पैनल से 1 अवलोकन हटाकर और अन्य तरीकों को चलाने की कोशिश करके पाया।
अमीबा का कहना है कि मोनिका

2
@ChristophHanck @amoeba मेरे plmलिए त्रुटि यह random.method="amemiya"होती है कि जब वे मॉडल में केवल एक कोवरिएट होते हैं, तो मैट्रिक्स प्रारूप को बनाए रखने के X[, -1, drop=FALSE]बजाय संभवतः उनका उपयोग करना चाहिए । वैसे भी, मैंने एक सामान्य मानक चर सूत्र में जोड़कर इसे दूर करने की कोशिश की। -1.02 के अनुमान के साथ परिणाम को पुन: पेश करता है और यह असंतुलित डेटा के लिए भी काम करता है। X[, -1]X[, -1]amemiya
रेंडेल

3
@ jiebiao-wang @ChristophHanck @amoeba plm का वर्तमान विकास संस्करण इसके साथ ठीक चलता है random.method="amemiya": var std.dev शेयर idiosyncratic 0.6360 0.7975 0.002 व्यक्तिगत 313.659 13.7102 0.998 थीटा: 0.9841
Helix123

1
नमस्कार @JiebiaoWang। मुझे लगा कि आपके अपडेट के बाद, आपका जवाब मेरे सवाल का संतोषजनक जवाब देता है। मैंने कुछ संपादन करने amemiyaऔर एमएल बनाम जीएलएस पर एक उद्धरण डालने के लिए स्वतंत्रता ली । मैं इसे स्वीकार कर रहा हूं और इसे एक पुरस्कार देने जा रहा हूं। चीयर्स।
अमीबा का कहना है कि मोनिका

17

यह उत्तर मिश्रित मॉडल पर टिप्पणी नहीं करता है, लेकिन मैं समझा सकता हूं कि यादृच्छिक-प्रभाव अनुमानक क्या करता है और यह उस ग्राफ पर शिकंजा क्यों करता है।

सारांश: यादृच्छिक-प्रभाव अनुमानक मानता है , जो इस उदाहरण में सत्य नहीं है।E[uix]=0


यादृच्छिक प्रभाव अनुमानक क्या कर रहा है?

मान लें कि हमारे पास मॉडल है:

yit=βxit+ui+ϵit

हमारे पास भिन्नता के दो आयाम हैं: समूह और समय । अनुमान लगाने के लिए हम कर सकते हैं:itβ

  1. केवल एक समूह के भीतर समय-श्रृंखला भिन्नता का उपयोग करें । यह निश्चित-प्रभाव आकलनकर्ता करता है (और यही कारण है कि इसे अक्सर अनुमानक के भीतर भी कहा जाता है।)
  2. यदि यादृच्छिक है, तो हम समूहों के समय-श्रृंखला साधनों के बीच केवल पार-अनुभागीय भिन्नता का उपयोग कर सकते हैं। यह अनुमानक के बीच के रूप में जाना जाता है ।ui

    विशेष रूप से, प्रत्येक समूह , उपर्युक्त पैनल डेटा मॉडल का औसत समय प्राप्त करने के लिए:i

    y¯i=βx¯i+vi where vi=ui+ϵ¯i

    यदि हम इस प्रतिगमन को चलाते हैं, तो हमें अनुमान लगाने वाले के बीच मिलता है। निरीक्षण करें कि यह एक सुसंगत अनुमानक है यदि प्रभाव यादृच्छिक सफेद शोर है, साथ असंबंधित ! यदि यह मामला है, तो समूह भिन्नता के बीच पूरी तरह से पटकना (जैसा कि हम निश्चित प्रभाव अनुमानक के साथ करते हैं) अक्षम है।uix

अर्थमिति के रैंडम-इफेक्ट्स एस्टीमेटर (1) एस्टीमेटर (यानी फिक्स्ड इफेक्ट्स एस्टीमेटर) और (2) के बीच में एसेलेटर को दक्षता को अधिकतम करने के लिए मिलाता है। यह सामान्यीकृत कम से कम वर्गों का एक अनुप्रयोग है और मूल विचार उलटा विचरण भार है । दक्षता को अधिकतम करने के लिए, यादृच्छिक-प्रभाव अनुमानक अनुमानक और अनुमानक के बीच के भारित औसत के रूप में गणना करता है।β^

उस ग्राफ में क्या हो रहा है ...

बस उस ग्राफ को देखकर, आप स्पष्ट रूप से देख सकते हैं कि क्या चल रहा है:

  • प्रत्येक समूह के भीतर (एक ही रंग के यानी डॉट्स), एक उच्च एक कम साथ जुड़ा हुआ हैixityit
  • एक उच्च साथ एक समूह के पास एक उच्च ।ix¯iui

यादृच्छिक प्रभाव यह मानते हैं कि स्पष्ट रूप से संतुष्ट नहीं है। समूह प्रभाव (एक सांख्यिकीय अर्थ में) के लिए ओर्थोगोनल नहीं हैं , बल्कि, समूह प्रभाव का के साथ एक स्पष्ट सकारात्मक संबंध है ।E[uix]=0uixx

अनुमानक के बीच मानता है । बीच का अनुमान लगाने वाला कहता है, "यकीन है कि मैं" "को सकारात्मक बनाकर लगा सकता हूं !"E[uix]=0E[uix]=0β^

फिर बदले में, यादृच्छिक-प्रभाव अनुमानक बंद है क्योंकि यह अनुमानक और अनुमानक के बीच का भारित औसत है।


+1, धन्यवाद मैथ्यू। यकीन नहीं होता कि किसी ने आपके जवाब को क्यों नकार दिया। मैं मिश्रित मॉडल से संबंध स्थापित करने के लिए एक उत्तर की तलाश कर रहा हूं, इसलिए मैं आपका स्वीकार नहीं करूंगा, लेकिन फिर भी मैं इस चर्चा के लिए मददगार हूं। यदि आप थोड़ा सा विस्तार कर सकते हैं कि जीएलएस और उलटा-विचरण भार को कैसे लागू किया जाता है और यहां गणना की जाती है, तो यह बहुत उपयोगी होगा।
अमीबा का कहना है कि मोनिका

16

इस जवाब में, मैं जीएलएस के परिप्रेक्ष्य के बारे में मैथ्यू के +1 के जवाब पर थोड़ा विस्तार से बताना चाहूंगा कि अर्थमिति साहित्य साहित्य को यादृच्छिक प्रभाव अनुमानक कहता है।

जीएलएस परिप्रेक्ष्य

रैखिक मॉडल पर विचार करें यदि यह है कि आयोजित किया गया है, तो हम केवल मॉडल को अनुमानित OLS द्वारा अनुमान लगा सकते हैं , जो पैनल डेटा संरचना की अनदेखी करते हैं और सभी टिप्पणियों को एक साथ हैं ।

yit=α+Xitβ+uiti=1,,m,t=1,,T
E(uit|Xit)=0n=mT

हम त्रुटि-घटक मॉडल का उपयोग करके मॉडलuit

uit=ηi+ϵit

मैट्रिक्स संकेतन में, मॉडल के रूप में लिखा जा सकता है जहां और हैं ठेठ साथ -vectors एलिमेंट्स और , और एक (प्रति यूनिट एक कॉलम) डमी वैरिएबल का मैट्रिक्स है। ऐसा है कि यदि एक पंक्ति इकाई से संबंधित अवलोकन से मेल खाती है , तो का स्तंभ और 0 में एक है, ।

y=αιmT+Xβ+Dη+ϵ
yϵnyitϵitDn×mDiDii=1,,m

हम आगे

E(ϵϵ)=σϵ2I

व्यक्तिगत-विशिष्ट प्रभाव स्वतंत्र होना चाहिए । यादृच्छिक-प्रभाव अनुमानक, निश्चित प्रभावों (फिर, अर्थमिति शब्दावली) के विपरीत, हालांकि, इसके अलावा मजबूत धारणा की आवश्यकता है कि इस धारणा के तहत, जमा हुआ ओएलएस निष्पक्ष होगा, लेकिन हम एक जीएलएस अनुमानक प्राप्त कर सकते हैं। मान लें कि शून्य और विचरण साथ IID हैं ।ηϵit

E(ηi|X)=0
ηiση2

यह धारणा यादृच्छिक प्रभाव शब्द के लिए है । यह मानते हुए कि दो त्रुटि घटक स्वतंत्र हैं, यह देखना आसान है कि

Var(uit)=ση2+σϵ2Cov(uit,uis)=ση2Cov(uit,ujs)=0for all ij

फिर हमें निम्नलिखित विचरण-सह-संवेदी मैट्रिक्स : यहाँ, साथ एक वालों के -vector। इसलिए हम । GLS आकलनकर्ता के लिए हमें । यह अंत करने के लिए, ,n×nΩ

Ω=(ΣOOOΣOOOΣ)
Σ=ση2ιι+σϵ2IT
ιT
Ω=ση2(Imιι)+σϵ2(ImIT)
β^RE=(XΩ1X)1XΩ1y
Ω1JT=ιιJ¯T=JT/TET=ITJ¯T । फिर, या समान साथ शब्द संग्रह करना, का और तो हमें उस जहाँ ।
Ω=Tση2(ImJ¯T)+σϵ2(ImET)+σϵ2(ImJ¯T)
Ω=(Tση2+σϵ2)(ImJ¯T)+σϵ2(ImET)
P=ImJ¯TQ=ImET
Ω1=1σ12P+1σϵ2Q=ση2σ12σϵ2(Imιι)+1σϵ2(ImIT),
σ12=Tση2+σϵ2

गॉस-मार्कोव तर्क तब बताता है कि यादृच्छिक प्रभाव अनुमानक क्यों उपयोगी हो सकता है, क्योंकि यह दिए गए मान्यताओं के तहत जमा किए गए ओएलएस या निश्चित प्रभावों की तुलना में अधिक कुशल अनुमानक है (बशर्ते, जो कई पैनल डेटा अनुप्रयोगों में बहुत बड़ा हो, जो वास्तव में साथ असंबंधित हैं)। संक्षेप में, जीएलएस अधिक कुशल है क्योंकि इस मॉडल में त्रुटि सहसंयोजक मैट्रिक्स होमोसैकेस्टिक नहीं है।ηi

एक दिखा सकता है कि आंशिक रूप से डेटा पर OLS चलाकर GLS का अनुमान प्राप्त किया जा सकता है: जहां । के लिए एक निश्चित प्रभाव ( "भीतर") आकलनकर्ता हो जाता है। के लिए एक "के बीच" आकलनकर्ता हो जाता है। जीएलएस अनुमानक दोनों के बीच एक भारित औसत है। (के लिए किसी को जमा हुआ OLS अनुमानक मिलता है।)

(yitθy¯i)=(XitθX¯i)β+(uitθui),
θ=1ση/σ1θ=1θθ=0

व्यवहार्य GLS

FGLS को व्यावहारिक बनाने के लिए, हमें और अनुमानक की आवश्यकता होती है । बाल्टागी, पैनल डेटा के अर्थमितीय विश्लेषण, पी। 16 (तीसरे संस्करण से उद्धृत), आगे बढ़ने के तरीकों पर चर्चा करता है।σ12σϵ2

पहले मान लें कि हम निरीक्षण करते हैं । फिर,uit

σ^12=T1mi=1mu¯i2
और उनके मानकों के अच्छे अनुमानक होंगे, के साथ-साथ यूनिट के प्रेक्षणों के समय-औसत ।
σ^ϵ2=1m(T1)i=1mt=1T(uit1mi=1mu¯i)2
u¯ii

वालेस और हुसैन (1969) दृष्टिकोण की जगह होते एक जमा OLS प्रतिगमन (जो, सब के बाद, अभी भी निष्पक्ष और वर्तमान मान्यताओं के तहत संगत है) की बच के साथ।u

Amemiya (1971) दृष्टिकोण एफई (या LSDV) के बजाय बच का उपयोग कर पता चलता है। एक कम्प्यूटेशनल मामले के रूप में, हम डमी वैरिएबल ट्रैप को रोकने के लिए पर प्रतिबंध लगाते हैं ताकि प्राप्त करने में सक्षम हो सकें के साथ से अधिक भव्य औसत दर्शाने और LSDV बच के लिए ।iηi=0α^=y¯X¯β^FEitu^=yα^Xβ^FE

डिफ़ॉल्ट स्वामी और अरोड़ा (1972) दृष्टिकोण ने अनुमान लगाया है कि और यहां, ।

σ^ϵ2=[yQ(IX(XQX)1XQ)y]/[m(T1)K]
σ^12=[yP(IZ(ZPX)1ZP)y]/[mK1]
Z=(ιmTX)

Nerlove (1971) दृष्टिकोण अनुमान से जहां एक निश्चित प्रभाव प्रतिगमन से dummies हैं और इस प्रतिगमन से वर्गों के अवशिष्ट योगों से अनुमान लगाया जाता है, हर में साथ ।ση2i=1m(η^iη^¯)2/(m1)η^iσ^ϵ2mT

मुझे भी बहुत आश्चर्य हुआ कि ये इतने बड़े अंतर हैं जैसा कि रान्डेल की गणना से पता चलता है!

संपादित करें:

अंतरों के संबंध में, त्रुटि घटकों के अनुमानों को plmपैकेज में वापस लिया जा सकता है , और वास्तव में बहुत भिन्न परिणाम लौटाते हैं, लिए बिंदु अनुमानों में अंतर बताते हुए (@ रान्डेल के उत्तर के अनुसार, एक त्रुटि है कि मैंने प्रयास नहीं किया ठीक कर):βamemiya

> ercomp(stackY~stackX, data = paneldata, method = "walhus")
                  var std.dev share
idiosyncratic 21.0726  4.5905 0.981
individual     0.4071  0.6380 0.019
theta:  0.06933  
> ercomp(stackY~stackX, data = paneldata, method = "swar")
                 var std.dev share
idiosyncratic 0.6437  0.8023 0.229
individual    2.1732  1.4742 0.771
theta:  0.811  
> ercomp(stackY~stackX, data = paneldata, method = "nerlove")
                   var  std.dev share
idiosyncratic   0.5565   0.7460 0.002
individual    342.2514  18.5000 0.998
theta:  0.9857  

मुझे संदेह है कि त्रुटि घटकों के अनुमानक भी बहन के धागे में मेरे उदाहरण के अनुरूप नहीं हैं, जहां मेरा लक्ष्य है कि मैं व्यक्तिगत प्रभाव और सहसंबंधित डेटा का उपयोग करके FE और RE के बीच अंतर प्रदर्शित करूं । (वास्तव में, वे नहीं हो सकते हैं, क्योंकि वे अंततः एफई अनुमान से आरई अनुमान को इस तथ्य के अनुसार निकाल देते हैं कि आरई एफई का भारित औसत है और त्रुटि घटक अनुमानों द्वारा निर्धारित वजन के साथ अनुमान के बीच है। इसलिए, आरई आरई नहीं है। सुसंगत, कि अंततः इन अनुमानों के कारण होना चाहिए।)X

यदि आप उस उदाहरण की "अपमानजनक" सुविधा को प्रतिस्थापित करते हैं,

alpha = runif(n,seq(0,step*n,by=step),seq(step,step*n+step,by=step))

बस, कहो,

alpha = runif(n)

इसलिए यादृच्छिक प्रभाव है कि साथ uncorrelated हैं , आप के लिए आरई बिंदु अनुमान प्राप्त बहुत सही मूल्य के करीब त्रुटि घटकों का आकलन के सभी variantes के लिए।Xββ=1


संदर्भ

अम्मीया, टी।, 1971, एक विचरण-घटक मॉडल में विभेदों का अनुमान , अंतर्राष्ट्रीय आर्थिक समीक्षा 12, 1 -13।

बाल्टगी, बीएच, इकोनोमेट्रिक एनालिसिस ऑफ पैनल डेटा, विले।

नेरलोवे, एम।, 1971 ए, क्रॉस-सेक्शन की एक समय-श्रृंखला से गतिशील आर्थिक संबंधों के अनुमान पर आगे के सबूत , इकोनोमेट्रिक 39, 359-382।

स्वामी, पीएवीबी और एसएस अरोड़ा, 1972, त्रुटि घटकों प्रतिगमन मॉडल में गुणांक के अनुमानकों के सटीक परिमित नमूना गुण , इकोनोमेट्रिक 40, 261-275।

वालेस, टीडी और ए। हुसैन, 1969, क्रॉस-सेक्शन और समय-श्रृंखला डेटा के संयोजन में त्रुटि घटकों के मॉडल का उपयोग , इकोनोमेट्रिक 37, 55-72।


4
+1। धन्यवाद क्रिस्टोफ, यह मददगार है और मैं अंत में इस धागे में कुछ गणितीय विवरण देखने के लिए खुश हूं। यह देखने के लिए बहुत अच्छा होगा plmकि रान्डेल द्वारा चार तरीकों को किस तरह से लागू किया गया और सूचीबद्ध किया गया और इसके बारे में कुछ टिप्पणियों के साथ अपने उत्तर को अपडेट करें। यदि विस्तृत विवरण नहीं है, तो कम से कम कुछ संक्षिप्त नोट जो चल रहा है। क्या आपको लगता है कि आप इसे देख पाएंगे? मैं उस के लिए एक इनाम देने के लिए खुश हूँ :-) मेरे भोले दृष्टिकोण तय प्रभाव समाधान से दोनों सिग्मा का अनुमान लगाने के लिए होगा। क्या यह "नामित" विधियों में से एक के अनुरूप है?
अमीबा का कहना है कि

@amoeba, मैंने त्रुटि घटक मॉडल में भिन्नताओं का अनुमान लगाने के बारे में कुछ टिप्पणियां शामिल कीं। आपका सुझाव तब अम्मीया के साथ निकटता से जुड़ा हुआ प्रतीत होता है।
क्रिस्टोफ हनक

बहुत अच्छा धन्यवाद। क्या नेरोलेव भी डमी के साथ प्रतिगमन का उपयोग नहीं कर रहा है? वास्तव में, मुझे काफी समझ नहीं है कि अम्मीया और नेरलोवे के बीच क्या अंतर है। मेरा "भोला" सुझाव डमी प्रतिगमन को फिट करने के लिए था, अवशिष्ट विचरण को अनुमान के रूप में उपयोग करें और डमी गुणांकों के विचरण का उपयोग अनुमान के रूप में करें । ऐसा लगता है कि Nerlove क्या कर रहा है। मुझे यकीन नहीं है कि मैं समझता हूं कि अम्मीया क्या कर रही है और यह कैसे अलग है। (और मैं मानता हूं कि बहुत बड़ा सवाल यह है कि इन तरीकों से इस मामले में इतना अंतर क्यों पैदा होता है।)σϵση
अमीबा का कहना है कि मोनिका

हाँ, दोनों डमी के साथ प्रतिगमन का उपयोग करते हैं। जहां तक ​​मैं समझता हूं, अम्मीया और नेरलोवे के बीच एक अंतर स्वतंत्रता सुधार की डिग्री के लिए भाजक है। एक और यह है कि मुझे यकीन नहीं है कि अनुमानित डमी गुणांकों का विचरण अवशिष्टों के विचरण के समान है। एक अन्य महत्वपूर्ण बात यह है कि Nerlove का सीधा मतलब का अनुमान लगाना है, जबकि आपको तीन अन्य के लिए माध्यम से अनुमान वापस करना होगा। , और इनमें से एक ज्ञात नुकसान यह है कि इस बात की कोई गारंटी नहीं है कि ये अप्रतिष्ठित हैं। ( σ 2 1 - σ 2 ε ) / टीση2(σ^12σ^ϵ2)/T
१३:

1
धन्यवाद। मैंने लिए एक अधिक स्पष्ट सूत्र प्रदान करने के लिए एक संपादन किया , आप शायद दोबारा जांचना चाहें (लेकिन मुझे लगता है कि यह सही है)। मैंने एक जवाब दिया कि मैं आपके जवाब के लिए पुरस्कार देने जा रहा हूं। हालाँकि, मैं अभी भी एक ऐसे उत्तर की तलाश में हूँ, जो मिश्रित मॉडल के लिए एक कनेक्शन आकर्षित करेगा, जो कि MLE के विपरीत GLS है, और समझाता है कि क्यों और कब किसी को कौन सा दृष्टिकोण पसंद करना चाहिए (वर्तमान उत्तरों में से कोई भी ऐसा नहीं करता है, इसलिए वर्तमान में कोई उत्तर नहीं है, "स्वीकृत" के रूप में टिक करें)। यह दिलचस्प है कि MLE (जैसा कि कार्यान्वित किया गया है ) भिन्नता अनुमान लगाता है जो कि Nerlove के बहुत करीब हैं। Ω1lmer
अमीबा

11

मैं वास्तव में आपके कोड पर टिप्पणी करने के लिए R के साथ पर्याप्त रूप से परिचित नहीं हूं, लेकिन साधारण यादृच्छिक अवरोधन मिश्रित मॉडल RE MLE अनुमानक के समान होना चाहिए, और RE GLS अनुमानक के बहुत करीब, सिवाय जब कुल छोटा हो और डेटा असंतुलित हैं। उम्मीद है, यह समस्या का निदान करने में उपयोगी होगा। बेशक, यह सब मान रहा है कि आरई अनुमानक उपयुक्त है।N=iTi

यहां कुछ स्टैटा को समतुल्यता ( एसएससी की आवश्यकता है esttabऔर eststo) दिखा रहा है :

set more off
estimates clear
webuse nlswork, clear
eststo, title(mixed): mixed ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure || id: // Mixed estimator
eststo, title(MLE): xtreg ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure, i(id) mle // MLE RE estimator 
eststo, title(GLS): xtreg ln_w grade age c.age#c.age ttl_exp tenure c.tenure#c.tenure, i(id) re // GLS RE estimato
esttab *, b(a5) se(a5) mtitle 

यहाँ अंतिम पंक्ति का आउटपुट है:

. esttab *, b(a5) se(a5) mtitle 

------------------------------------------------------------
                      (1)             (2)             (3)   
                    mixed             MLE             GLS   
------------------------------------------------------------
main                                                        
grade            0.070790***     0.070790***     0.070760***
              (0.0017957)     (0.0017957)     (0.0018336)   

age              0.031844***     0.031844***     0.031906***
              (0.0027201)     (0.0027202)     (0.0027146)   

c.age#c.age   -0.00065130***  -0.00065130***  -0.00065295***
             (0.000044965)    (0.000044971)    (0.000044880)   

ttl_exp          0.035228***     0.035228***     0.035334***
              (0.0011382)     (0.0011392)     (0.0011446)   

tenure           0.037134***     0.037134***     0.037019***
              (0.0015715)     (0.0015723)     (0.0015681)   

c.tenure#c~e   -0.0018382***   -0.0018382***   -0.0018387***
             (0.00010128)    (0.00010128)    (0.00010108)   

_cons             0.14721***      0.14721***      0.14691** 
               (0.044725)      (0.044725)      (0.044928)   
------------------------------------------------------------
lns1_1_1                                                    
_cons            -1.31847***                                
               (0.013546)                                   
------------------------------------------------------------
lnsig_e                                                     
_cons            -1.23024***                                
              (0.0046256)                                   
------------------------------------------------------------
sigma_u                                                     
_cons                             0.26754***                
                              (0.0036240)                   
------------------------------------------------------------
sigma_e                                                     
_cons                             0.29222***                
                              (0.0013517)                   
------------------------------------------------------------
N                   28099           28099           28099   
------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001

आपके डेटा में, आरई अनुमानक का उपयोग करने की धारणाएं संतुष्ट नहीं हैं क्योंकि समूह प्रभाव स्पष्ट रूप से एक्स के साथ जुड़ा हुआ है, इसलिए आपको बहुत अलग अनुमान मिलते हैं। जीएलएस आरई आकलनकर्ता वास्तव में क्षणों (जीएमएम) अनुमानक का एक सामान्यीकृत तरीका है जो कि अनुमानकर्ताओं के बीच और भीतर मैट्रिक्स-भारित औसत है। भीतर अनुमानक यहाँ ठीक होने जा रहा है, लेकिन बीच में गहराई से खराब होने जा रहा है, एक्स के बड़े सकारात्मक प्रभाव दिखा रहा है। तो GLS ज्यादातर अनुमानक के बीच होगा। MLE RE एक MLE है जो यादृच्छिक-प्रभाव मॉडल की संभावना को अधिकतम करता है। उन्हें अब उसी उत्तर का उत्पादन करने की उम्मीद नहीं है। यहाँ मिश्रित अनुमानक FE के भीतर बहुत कुछ दे रहा है "भीतर" अनुमानक:

. esttab *, b(a5) se(a5) mtitle 

----------------------------------------------------------------------------
                      (1)             (2)             (3)             (4)   
                    mixed             GLS             MLE          Within   
----------------------------------------------------------------------------
main                                                                        
x                -1.02502***      0.77031**       3.37983***     -1.04507***
               (0.092425)       (0.26346)       (0.20635)      (0.093136)   

_cons             30.2166***      18.3459***      0.49507         30.3492***
                (5.12978)       (2.31566)             (.)       (0.62124)   
----------------------------------------------------------------------------
lns1_1_1                                                                    
_cons             2.87024***                                                
                (0.20498)                                                   
----------------------------------------------------------------------------
lnsig_e                                                                     
_cons            -0.22598**                                                 
               (0.077195)                                                   
----------------------------------------------------------------------------
sigma_u                                                                     
_cons                                             2.40363                   
                                                (1.28929)                   
----------------------------------------------------------------------------
sigma_e                                                                     
_cons                                             4.23472***                
                                                (0.37819)                   
----------------------------------------------------------------------------
N                      96              96              96              96   
----------------------------------------------------------------------------
Standard errors in parentheses
* p<0.05, ** p<0.01, *** p<0.001

यहाँ उपरोक्त तालिका के लिए स्टैटा कोड दिया गया है:

clear
set more off
estimates clear

input int(obs id t) double(y x)
1      1           1  2.669271  0.5866982
2      1           2  1.475540  1.3500454
3      1           3  4.430008  0.6830919
4      1           4  2.162789  0.5845966
5      1           5  2.678108  1.0038879
6      1           6  3.456636  0.5863289
7      1           7  1.769204  2.3375403
8      1           8  3.413790  0.9640034
9      2           1  4.017493  1.5084121
10     2           2  4.218733  2.8982499
11     2           3  4.509530  3.2141335
12     2           4  6.106228  2.0317799
13     2           5  5.161379  2.1231733
14     2           6  2.724643  4.3369017
15     2           7  4.500306  1.9141065
16     2           8  4.119322  2.8667938
17     3           1  9.987779  2.3961969
18     3           2  7.768579  3.5509275
19     3           3  9.379788  3.3284869
20     3           4 10.035937  2.2997389
21     3           5 11.752360  2.8143474
22     3           6  9.500264  2.1825704
23     3           7  8.921687  5.0126462
24     3           8  8.269932  3.4046339
25     4           1 12.101253  3.2928033
26     4           2 11.482337  3.1645218
27     4           3 10.648010  4.8073987
28     4           4  9.687320  5.3394193
29     4           5 12.796925  3.1197431
30     4           6  9.971434  4.6512983
31     4           7 10.239717  4.7709378
32     4           8 12.245207  2.7952426
33     5           1 18.473320  5.8421967
34     5           2 19.097212  4.9425391
35     5           3 19.460495  4.9166172
36     5           4 18.642305  4.9856035
37     5           5 17.723912  5.0594425
38     5           6 16.783248  4.8615618
39     5           7 16.100984  6.2069167
40     5           8 18.851351  3.8856152
41     6           1 19.683171  7.5568816
42     6           2 21.104231  6.7441900
43     6           3 22.115529  6.4486514
44     6           4 22.061362  5.3727434
45     6           5 22.457905  5.8665798
46     6           6 21.424413  6.0578997
47     6           7 23.475946  4.4024323
48     6           8 24.884950  4.1596914
49     7           1 25.809011  7.6756255
50     7           2 25.432828  7.7910756
51     7           3 26.790387  7.3858301
52     7           4 24.640850  8.2090606
53     7           5 26.050086  7.3779219
54     7           6 25.297148  6.8098617
55     7           7 26.551229  7.6694272
56     7           8 26.669760  6.4425772
57     8           1 26.409669  8.3040894
58     8           2 26.570003  8.4686087
59     8           3 29.018818  7.2476785
60     8           4 30.342613  4.5207729
61     8           5 26.819959  8.7935557
62     8           6 27.147711  8.3141224
63     8           7 26.168568  9.0148308
64     8           8 27.653552  8.2081808
65     9           1 34.120485  7.8415520
66     9           2 31.286463  9.7234259
67     9           3 35.763403  6.9202442
68     9           4 31.974599  9.0078286
69     9           5 32.273719  9.4954288
70     9           6 29.666208 10.2525763
71     9           7 30.949857  9.4751679
72     9           8 33.485967  8.1824810
73    10           1 36.183128 10.7891587
74    10           2 37.706116  9.7119548
75    10           3 38.582725  8.6388290
76    10           4 35.876781 10.8259279
77    10           5 37.111179  9.9805046
78    10           6 40.313149  7.7487456
79    10           7 38.606329 10.2891107
80    10           8 37.041938 10.3568765
81    11           1 42.617586 12.1619185
82    11           2 41.787495 11.1420338
83    11           3 43.944968 11.1898730
84    11           4 43.446467 10.8099599
85    11           5 43.420819 11.2696770
86    11           6 42.367318 11.6183869
87    11           7 43.543785 11.1336555
88    11           8 43.750271 12.0311065
89    12           1 46.122429 12.3528733
90    12           2 47.604306 11.4522787
91    12           3 45.568748 13.6906476
92    12           4 48.331177 12.3561907
93    12           5 47.143246 11.7339915
94    12           6 44.461190 13.3898768
95    12           7 46.879044 11.4054972
96    12           8 46.314055 12.3143487
end

eststo, title(mixed): mixed y x || id:, mle // Mixed estimator
eststo, title(GLS): xtreg y x, i(id) re     // GLS RE estimato
eststo, title(MLE): xtreg y x, i(id) mle    // MLE RE estimator 
eststo, title(Within): xtreg y x, i(id) fe  // FE Within estimator 
eststo, title(Between): xtreg y x, i(id) be // Between estimator 

esttab *, b(a5) se(a5) mtitle 

+1। धन्यवाद, दिमित्री, यह निश्चित रूप से एक ही खिलौना डाटासेट पर स्टैटा के आउटपुट को देखने के लिए सहायक है। मेरे पास MLE आकलनकर्ता के बारे में एक प्रश्न है। मुझे लगा कि मिश्रित मॉडल दृष्टिकोण ( mixedस्टाटा और lmerआर में) भी अधिकतम संभावना है या कभी-कभी "प्रतिबंधित अधिकतम संभावना" (मैं अपनी lmerकॉल में दोनों का उपयोग करके सेटिंग कर सकता हूं REML=Tया REML=Fवे लगभग समान परिणाम देते हैं)। हालांकि मिश्रित मॉडल दृष्टिकोण बहुत ही समझदार और सही परिणाम देता है, जबकि स्टेट "MLE" जो कहता है वह इस मामले में एक बकवास परिणाम देता है। अंतर क्या है? वास्तव में स्टेट के "MLE" का क्या अर्थ है?
अमीबा का कहना है कि

2
@amoeba दोनों mixed, mleऔर xtreg, mleMLE अनुमानक हैं, लेकिन संभावना कार्य कुछ अलग हैं। देखें यहाँ पूर्व के लिए, और यहाँ बाद के लिए। मैं यह नहीं समझता कि mixedमॉडल इतना मजबूत क्यों है ।
दिमित्री वी। मास्टरोव

xtmixed को मिश्रित के पुराने संस्करणों में कहा जाता है। आपके डेटा के लिए, वह समानता स्पष्ट रूप से नहीं है, जबकि यह मेरे डेटा के लिए है, जैसा कि मैनुअल से पता चलता है।
दिमित्री वी। मास्टरोव

ssc install estoutयद्यपि मेरा स्मरण यह है कि अलग-अलग संस्करणों में इसकी कार्यक्षमता अलग थी, और पिछड़े संगत होने में विफल रहे।
स्टैस्क

1
@StasK ने मुझे स्टाटा टेक सपोर्ट के संपर्क में रखा और उन्होंने कहा कि यह संभवत: एक बग है xtreg, mle"सामान्य तौर पर परिणाम समान होना चाहिए [...]। मॉडल के मापदंडों के आकलन में पहचान की समस्याएं होने पर इस तरह के मतभेद सामान्य रूप से उत्पन्न होते हैं। [...] मैंने वास्तव में विचरण के लिए स्थिति संख्या की जांच की। -कवरियन मैट्रिक्स, दोनों संगणनाओं से उत्पन्न होती है और यह संख्या मूल रूप से -xtreg, mle- और 4000 से अधिक के लिए -mixed, mle- [...] होती है। डेवलपर्स [...] यह निर्धारित करने के लिए समस्या का मूल्यांकन करने जा रहे हैं। एक निश्चित कोड की आवश्यकता है। "
अमीबा का कहना है कि

9

मुझे चीजों को और अधिक भ्रमित करने दें:

ECONOMETRICS - FIXED EFFECTS APPROACH
पैनल डेटा के लिए अर्थमिति में "निश्चित प्रभाव" दृष्टिकोण, ढलान गुणांक (बेटास) का अनुमान लगाने का एक तरीका है, व्यक्तिगत प्रभाव चर के अस्तित्व को "बाय-पास" , और इसलिए नहीं किसी भी धारणा बनाने के रूप में कि क्या यह "तय" या "यादृच्छिक" है। यह "प्रथम अंतर" अनुमानक (डेटा के पहले अंतर का उपयोग करके) और "भीतर" अनुमानक (समय-औसत से विचलन का उपयोग करके) करते हैं: वे केवल बेटास का अनुमान लगाने का प्रबंधन करते हैं।αi

एक अधिक पारंपरिक दृष्टिकोण के लिए जो स्पष्ट रूप से व्यक्तिगत प्रभावों ("अंतःक्षेपण") को स्थिरांक के रूप में व्यवहार करता है, हम लिस्ट स्क्वेयर डमी वेरिएबल (एलएसडीवी) एस्टीमेटर का उपयोग करते हैं, जो कि नोट के लिए अनुमान भी प्रदान करता है : रैखिक मॉडल में तीन अनुमानक बीजीय रूप से केवल बाट के लिए उत्पादित अनुमानों के संबंध में बीजगणितीय संयोग करते हैं - लेकिन केवल रैखिक मॉडल में।αi

चर्चा (आंशिक रूप से वर्ग नोट्स से अंश)

"निश्चित प्रभावों के दृष्टिकोण का मुख्य लाभ यह है कि हमें व्यक्तिगत प्रभावों की प्रकृति के बारे में कोई धारणा बनाने की आवश्यकता नहीं है। हमें इसे लागू करना चाहिए जब भी हमें संदेह हो कि इस मामले में बाद वाले एक या एक से अधिक रजिस्टरों के साथ सहसंबद्ध हैं।" इस तरह के सहसंबंध की उपस्थिति को नजरअंदाज करते हुए और पूल मॉडल पर ओएलएस लागू करने के कारण, असंगत अनुमानक पैदा करते हैं। न्यूनतम मान्यताओं के आधार पर इसकी अपील के बावजूद, जो कि हमें व्यक्तिगत प्रभावों के संबंध में करने की जरूरत है, निश्चित प्रभाव दृष्टिकोण में कुछ सीमाएं हैं। सबसे पहले, समय के गुणांक। अपरिवर्तनीय रजिस्टरों का अनुमान नहीं लगाया जा सकता है क्योंकि इन चर को अलग-अलग व्यक्तिगत प्रभावों के साथ अलग किया जाता है।व्यक्तिगत प्रभाव (यदि हम एलएसडीवी अनुमानक का उपयोग करते हैं तो) निरंतर अनुमान नहीं लगाया जा सकता है (सिवाय इसके कि अगर हम समय के आयामों को जाने दें)। "

ECONOMETRICS - RANDOM EFFECTS APPROACH
"पारंपरिक" अर्थमितीय रैंडम इफेक्ट्स दृष्टिकोण में हम मानते हैं कि व्यक्ति "इंटरसेप्ट्स" "स्थायी यादृच्छिक घटक" हैं जबकि "सामान्य" त्रुटि शब्द "ट्रांसिटरी" त्रुटि घटक हैं।αi

एक दिलचस्प विस्तार में, अतिरिक्त यादृच्छिकता एक यादृच्छिक समय प्रभाव के अस्तित्व से उत्पन्न होती है, जो सभी क्रॉस सेक्शन के लिए सामान्य है लेकिन समय अलग-अलग है , एक निश्चित (निरंतर) व्यक्तिगत प्रभाव और त्रुटि शब्द के साथ। उदाहरण के लिए यह "समय प्रभाव" अर्थव्यवस्था-व्यापक स्तर पर एक समग्र झटके का प्रतिनिधित्व कर सकता है जो समान रूप से सभी घरों को प्रभावित करता है। ऐसी समग्र गड़बड़ी वास्तव में देखी जाती है और इसलिए यह एक यथार्थवादी मॉडलिंग विकल्प प्रतीत होता है।

यहां "रैंडम इफेक्ट्स" एस्टीमेटर एक सामान्यीकृत खमीर वर्ग (जीएलएस) अनुमानक है, जो कि बढ़ी हुई दक्षता के लिए है।

अब, एक और अधिक अनुमानित अनुमानक, "बीच" अनुमानक, समय-औसत टिप्पणियों पर ओएलएस करता है। बीजगणित के विषय के रूप में यह दिखाया गया है कि GLS अनुमानक को भीतर और बीच के अनुमानकों के भारित औसत के रूप में प्राप्त किया जा सकता है, जहां भार मनमाने ढंग से नहीं होते हैं, लेकिन दोनों के VCV मैट्रिसेस से संबंधित होते हैं।

... और "असम्बद्ध यादृच्छिक प्रभाव" और "सहसंबद्ध यादृच्छिक प्रभाव" मॉडल भी हैं।

मुझे उम्मीद है कि उपरोक्त मदद "मिश्रित प्रभाव" मॉडल के साथ विपरीत कर सकती है।


+1, धन्यवाद एलेकोस। यह सहायक है, लेकिन मिश्रित मॉडल के दृष्टिकोण के सभी का संबंध मेरे लिए अस्पष्ट है। मुझे शक होने लगता है कि शायद अब कोई रिश्ता नहीं है। बीच और भीतर के अनुमानक (और यह कि वर्ग डमी के बराबर है) रास्ते से स्पष्ट हैं; मेरा भ्रम केवल यादृच्छिक प्रभाव दृष्टिकोण के बारे में है।
अमीबा का कहना है कि
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.