अवलोकन सूचना मैट्रिक्स अपेक्षित सूचना मैट्रिक्स का एक सुसंगत अनुमानक है?


16

मैं यह साबित करने की कोशिश कर रहा हूं कि अवलोकन किया गया सूचना मैट्रिक्स कमजोर रूप से अधिकतम अधिकतम संभावना अनुमानक (एमएलई) पर मूल्यांकन किया गया है, यह अपेक्षित सूचना मैट्रिक्स का कमजोर संगत आकलनकर्ता है। यह एक व्यापक रूप से उद्धृत परिणाम है, लेकिन कोई भी एक संदर्भ या प्रमाण नहीं देता है (मुझे लगता है कि मुझे लगता है कि Google परिणामों और मेरे आँकड़े पाठ्यपुस्तकों के पहले 20 पृष्ठ हैं)!

MLEs के एक कमजोर सुसंगत अनुक्रम का उपयोग करके मैं बड़ी संख्या (WLLN) के कमजोर कानून और निरंतर मैपिंग प्रमेय का उपयोग कर सकता हूं जो मुझे चाहिए। हालाँकि मेरा मानना ​​है कि निरंतर मैपिंग प्रमेय का उपयोग नहीं किया जा सकता है। इसके बजाय मुझे लगता है कि बड़ी संख्या (ULLN) के समान कानून का उपयोग करने की आवश्यकता है। क्या किसी को उस संदर्भ का पता है जिसका कोई प्रमाण है? मेरे पास ULLN में एक प्रयास है, लेकिन संक्षिप्तता के लिए इसे अभी से छोड़ दें।

मैं इस प्रश्न की लंबाई के लिए माफी माँगता हूँ लेकिन अंकन को पेश करना पड़ता है। अंकन फॉलोवर्स के रूप में है (मेरा प्रमाण अंत में है)।

मान लें हम यादृच्छिक चर के एक आईआईडी नमूना है { Y 1 , ... , वाई एन }{Y1,,YN} घनत्व के साथ ( ~ Y | θ )f(Y~|θ) , जहां θ Θ आर कश्मीरθΘRk (यहाँ ~ YY~ एक सिर्फ एक ही घनत्व के साथ सामान्य यादृच्छिक चर है नमूने के किसी भी सदस्य के रूप में)। वेक्टर Y = ( Y 1 , , Y N ) TY=(Y1,,YN)T उन सभी नमूना वैक्टरों का वेक्टर है जहां Y iआर एनYiRn सभी के लिए मैं = 1 , ... , एनi=1,,N । घनत्व का सच पैरामीटर मान है θ 0θ0 , और θ एन ( वाई ) की दुर्बलता से लगातार अधिकतम संभावना आकलनकर्ता (MLE) है θ 0 । नियमितता की शर्तों के अधीन फिशर सूचना मैट्रिक्स के रूप में लिखा जा सकता हैθ^N(Y)θ0

मैं ( θ ) = - θ [ एच θ ( लॉग ( ~ Y | θ ) ]

I(θ)=Eθ[Hθ(logf(Y~|θ)]

जहां H ianHθ हेसियन मैट्रिक्स है। नमूना समकक्ष है

मैं एन ( θ ) = एन Σ मैं = 1 मैं y मैं ( θ ) ,

IN(θ)=i=1NIyi(θ),

जहां मैं y मैं = - θ [ एच θ ( लॉग ( Y मैं | θ ) ]Iyi=Eθ[Hθ(logf(Yi|θ)] । मनाया जानकारी मैट्रिक्स है;

जम्मू ( θ ) = - एच θ ( लॉग ( y | θ )J(θ)=Hθ(logf(y|θ) ,

(कुछ लोगों की मांग मैट्रिक्स पर मूल्यांकन किया जाता है θ लेकिन कुछ नहीं करते हैं)। नमूना देखा सूचना मैट्रिक्स है;θ^

जम्मू एन ( θ ) = Σ एन मैं = 1 जम्मू y मैं ( θ )JN(θ)=Ni=1Jyi(θ)

जहां जम्मू y मैं ( θ ) = - एच θ ( लॉग ( y मैं | θ )Jyi(θ)=Hθ(logf(yi|θ)

मैं आकलनकर्ता की संभावना में अभिसरण साबित कर सकते हैं एन - 1 जे एन ( θ )N1JN(θ) के लिए मैं ( θ )I(θ) , लेकिन की नहीं एन - 1 जे एन ( θ एन ( वाई ) )N1JN(θ^N(Y)) के लिए मैं ( θ 0 )I(θ0) । यहाँ मेरा प्रमाण अब तक है;

अब ( जे एन ( θ ) ) आर एस = - Σ एन मैं = 1 ( एच θ ( लॉग ( Y मैं | θ ) ) आर एस(JN(θ))rs=Ni=1(Hθ(logf(Yi|θ))rs तत्व है ( आर , एस )(r,s) की जम्मू एन ( θ )JN(θ) , किसी के लिए आर , s = 1 , , kr,s=1,,k। यदि नमूना आईआईडी है, तो बड़ी संख्या (डब्ल्यूएलएलएन) के कमजोर कानून द्वारा, इन सारांशों का औसत संभावना में परिवर्तित हो जाता है - θ [ ( एच θ ( लॉग एफ ( वाई 1 | θ ) ) r s ] = ( I) Y 1 ( θ ) ) आर एस = ( मैं ( θ ) ) आर एसEθ[(Hθ(logf(Y1|θ))rs]=(IY1(θ))rs=(I(θ))rs इस प्रकार। एन - 1 ( जे एन ( θ )) r s P ( I ( θ ) ) r sN1(JN(θ))rsP(I(θ))rs सभी r , s = 1 , , kr,s=1,,k , और इसलिए N - 1 J N ( θ ) P I ( θ ) के लिए हैN1JN(θ)PI(θ) । दुर्भाग्य से हम बस निष्कर्ष नहीं निकाल सकता एन - 1 जे एन ( θ एन ( वाई ) ) पी मैं ( θ0 ) सतत मानचित्रण प्रमेय के बाद का उपयोग करके एन - 1 जे एन ( ) एक ही कार्य नहीं है के रूप में मैं ( )N1JN(θ^N(Y))PI(θ0)N1JN()I()

इस पर किसी भी प्रकार की सहायताबहुत प्रशंसनीय होगी।



पते के नीचे मेरा जवाब आपके सवाल का जवाब देता है?
दापज

1
@ दपज़ कृपया अब तक आपको जवाब न देने के लिए मेरी ईमानदारी से क्षमायाचना स्वीकार करें - मैंने यह मानने की गलती की कि कोई भी जवाब नहीं देगा। नीचे दिए गए आपके उत्तर के लिए धन्यवाद - मैंने इसे तब तक अपवित्र किया है क्योंकि मैं देख सकता हूं कि यह सबसे उपयोगी है, हालांकि मुझे इस पर विचार करने के लिए थोड़ा खर्च करने की आवश्यकता है। आपके समय के लिए धन्यवाद, और मैं जल्द ही आपकी पोस्ट का जवाब दूंगा।
दांडार

जवाबों:


7

मुझे लगता है कि बड़ी संख्या में किसी प्रकार के एक समान कानून की स्थापना सीधे तौर पर संभव दृष्टिकोण है।

यहाँ एक और है।

हम यह दिखाना चाहते हैं कि J N ( θ M L E )एन पी मैं(θ*)JN(θMLE)NPI(θ)

(जैसा कि आपने कहा, हम WLLN से है कि जम्मू एन ( θ )एन पी मैं(θ)। लेकिन यह सीधे हमारी मदद नहीं करता है।)JN(θ)NPI(θ)

One possible strategy is to show that |I(θ)JN(θ)N|P0.

|I(θ)JN(θ)N|P0.

and

|JN(θMLE)NJN(θ)N|P0

|JN(θMLE)NJN(θ)N|P0

If both of the results are true, then we can combine them to get |I(θ)JN(θMLE)N|P0,

|I(θ)JN(θMLE)N|P0,

which is exactly what we want to show.

The first equation follows from the weak law of large numbers.

The second almost follows from the continuous mapping theorem, but unfortunately our function g()g() that we want to apply the CMT to changes with NN: our gg is really gN(θ):=JN(θ)NgN(θ):=JN(θ)N. So we cannot use the CMT.

(Comment: If you examine the proof of the CMT on Wikipedia, notice that the set BδBδ they define in their proof for us now also depends on nn. We essentially need some sort of equicontinuity at θθ over our functions gN(θ)gN(θ).)

Fortunately, if you assume that the family G={gN|N=1,2,}G={gN|N=1,2,} is stochastically equicontinuous at θθ, then it immediately follows that for θMLEPθθMLEPθ, |gn(θMLE)gn(θ)|P0.

|gn(θMLE)gn(θ)|P0.

(See here: http://www.cs.berkeley.edu/~jordan/courses/210B-spring07/lectures/stat210b_lecture_12.pdf for a definition of stochastic equicontinuity at θθ, and a proof of the above fact.)

Therefore, assuming that GG is SE at θθ, your desired result holds true and the empirical Fisher information converges to the population Fisher information.

Now, the key question of course is, what sort of conditions do you need to impose on GG to get SE? It looks like one way to do this is to establish a Lipshitz condition on the entire class of functions GG (see here: http://econ.duke.edu/uploads/media_items/uniform-convergence-and-stochastic-equicontinuity.original.pdf ).


1

The answer above using stochastic equicontinuity works very well, but here I am answering my own question by using a uniform law of large numbers to show that the observed information matrix is a strongly consistent estimator of the information matrix , i.e. N1JN(ˆθN(Y))a.s.I(θ0)N1JN(θ^N(Y))a.s.I(θ0) if we plug-in a strongly consistent sequence of estimators. I hope it is correct in all details.

We will use IN={1,2,...,N}IN={1,2,...,N} to be an index set, and let us temporarily adopt the notation J(˜Y,θ):=J(θ)J(Y~,θ):=J(θ) in order to be explicit about the dependence of J(θ)J(θ) on the random vector ˜YY~. We shall also work elementwise with (J(˜Y,θ))rs(J(Y~,θ))rs and (JN(θ))rs=Ni=1(J(Yi,θ))rs(JN(θ))rs=Ni=1(J(Yi,θ))rs, r,s=1,...,kr,s=1,...,k, for this discussion. The function (J(,θ))rs(J(,θ))rs is real-valued on the set Rn×ΘRn×Θ, and we will suppose that it is Lebesgue measurable for every θΘθΘ. A uniform (strong) law of large numbers defines a set of conditions under which

supθΘ|N1(JN(θ))rsEθ[(J(Y1,θ))rs]|=supθΘ|N1Ni=1(J(Yi,θ))rs(I(θ))rs|a.s0(1)supθΘN1(JN(θ))rsEθ[(J(Y1,θ))rs]=supθΘN1Ni=1(J(Yi,θ))rs(I(θ))rsa.s0(1)

The conditions that must be satisfied in order that (1) holds are (a) ΘΘ is a compact set; (b) (J(˜Y,θ))rs(J(Y~,θ))rs is a continuous function on ΘΘ with probability 1; (c) for each θΘθΘ (J(˜Y,θ))rs(J(Y~,θ))rs is dominated by a function h(˜Y)h(Y~), i.e. |(J(˜Y,θ))rs|<h(˜Y)|(J(Y~,θ))rs|<h(Y~); and (d) for each θΘθΘ Eθ[h(˜Y)]<Eθ[h(Y~)]<;. These conditions come from Jennrich (1969, Theorem 2).

Now for any yiRnyiRn, iINiIN and θSΘθSΘ, the following inequality obviously holds

|N1Ni=1(J(yi,θ))rs(I(θ))rs|supθS|N1Ni=1(J(yi,θ))rs(I(θ))rs|.(2)N1Ni=1(J(yi,θ))rs(I(θ))rssupθSN1Ni=1(J(yi,θ))rs(I(θ))rs.(2)

Suppose that {ˆθN(Y)}{θ^N(Y)} is a strongly consistent sequence of estimators for θ0θ0, and let ΘN1=BδN1(θ0)KΘΘN1=BδN1(θ0)KΘ be an open ball in RkRk with radius δN10δN10 as N1N1, and suppose KK is compact. Then since ˆθN(Y)ΘN1θ^N(Y)ΘN1 for N sufficiently large enough we have P[limN{ˆθN(Y)ΘN1}]=1 for sufficiently large N. Together with (2) this implies

P[limN{|N1Ni=1(J(Yi,ˆθN(Y)))rs(I(ˆθN(Y)))rs|supθΘN1|N1Ni=1(J(Yi,θ))rs(I(θ))rs|}]=1.(3)

Now ΘN1Θ implies conditions (a)-(d) of Jennrich (1969, Theorem 2) apply to ΘN1. Thus (1) and (3) imply

P[limN{|N1Ni=1(J(Yi,ˆθN(Y)))rs(I(ˆθN(Y)))rs|=0}]=1.(4)

Since (I(ˆθN(Y)))rsa.s.I(θ0) then (4) implies that N1(JN(ˆθN(Y)))rsa.s.(I(θ0))rs. Note that (3) holds however small ΘN1 is, and so the result in (4) is independent of the choice of N1 other than N1 must be chosen such that ΘN1Θ. This result holds for all r,s=1,...,k, and so in terms of matrices we have N1JN(ˆθN(Y))a.s.I(θ0).

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.