फिशर मैट्रिक और रिश्तेदार एन्ट्रापी के बीच संबंध


20

क्या कोई फ़िशर सूचना मीट्रिक और रिश्तेदार एन्ट्रापी (या केएल विचलन) के बीच निम्नलिखित संबंध को विशुद्ध रूप से गणितीय रूप से कठोर तरीके से साबित कर सकता है ?

D(p(,a+da)p(,a))=12gi,jdaidaj+(O(da3)
a=(a1,,an),da=(da1,,dan)
gi,j=i(logp(x;a))j(logp(x;a)) p(x;a) dx
gi,jdaidaj:=i,jgi,jdaidaj

मुझे जॉन बाएज़ के अच्छे ब्लॉग में उपरोक्त मिला जहाँ टिप्पणी में वासिलियोस एनाग्नोस्तोपोलोस कहते हैं।


1
प्रिय कुमार: स्पष्ट करने के लिए, यह आपके अंकन को बेहतर ढंग से समझाने में मदद करेगा, विशेष रूप से का अर्थ । इसके अलावा, मुझे लगता है कि आपकी अभिव्यक्ति प्रदर्शन समीकरण के दाईं ओर के पहले शब्द के सामने का एक स्थिर कारक याद कर रही है। ध्यान दें कि क्या कुल्बैक ने स्वयं को विचलन कहा जाता है (संकेतन का उपयोग करके जिसे केएल विचलन कहा जाता है, जिसे जान लिया जाता है, का सममितीय संस्करण है, अर्थात, । केएल डाइवर्जेंस को कुल्बैक के लेखन में दर्शाया गया था । यह के कारक को भी समझाता है । चीयर्स। gi,jजम्मू ( , ) जम्मू ( पी , क्यू ) = डी ( पी क्ष ) + डी ( क्ष पी ) मैं ( , )1/2J(,)J(p,q)=D(pq)+D(qp)I(,)1/2
कार्डिनल

जवाबों:


19

1946 में, भूभौतिकीविद् और बायेसियन सांख्यिकीविद हैरोल्ड जेफ़रीज़ ने आज हम जिसे कुलबबैक-लीब्लर विचलन कहते हैं, की खोज की और पाया कि दो वितरणों के लिए जो "असीम रूप से करीब" हैं (आशा करते हैं कि मैथ एसई लोग इसे नहीं देखते हैं ;-) हम लिख सकते हैं; उनके कुल्बैक-लीब्लर विचलन एक द्विघात रूप में होते हैं जिनके गुणांक फिशर सूचना मैट्रिक्स के तत्वों द्वारा दिए गए हैं। उन्होंने इस चतुष्कोणीय रूप की व्याख्या एक रीमैनियन की लंबाई के तत्व के रूप में की, जिसमें फिशर जानकारी के साथ रीमैनियन मीट्रिक की भूमिका निभा रहा था। सांख्यिकीय मॉडल के इस ज्यामितीयकरण से, उन्होंने अपने जेफ्रीज़ के पूर्व के उपाय को प्राकृतिक रूप से रिऐमानियन मीट्रिक द्वारा प्रेरित के रूप में व्युत्पन्न किया, और इस उपाय को कई गुना पर आंतरिक रूप से समान वितरण के रूप में व्याख्या किया जा सकता है, हालांकि, सामान्य रूप से, यह एक परिमित उपाय नहीं है।

एक कठोर प्रमाण लिखने के लिए, आपको सभी नियमितता की स्थितियों को देखना होगा और टेलर अभियानों में त्रुटि शर्तों के क्रम का ध्यान रखना होगा। यहाँ तर्क का संक्षिप्त विवरण दिया गया है।

दो घनत्व और बीच सममित कुल्लबैक-लीब्लर विचलन को परिभाषित किया गया हैfg

D[f,g]=(f(x)g(x))log(f(x)g(x))dx.

अगर हमारे पास घनत्व का परिवार है , तोθ=(θ1,,θk)

D[p(θ),p(θ+Δθ)]=(p(x,θ)p(xθ+Δθ))log(p(xθ)p(xθ+Δθ))dx,
जिसमें । प्रस्तुतिकरण the the कुछ सरल बीजगणित देता है प्राकृतिक लघुगणक के लिए टेलर विस्तार का उपयोग करना, हमारे पास है Δθ=(Δθ1,,Δθk)
Δp(xθ)=p(xθ)p(xθ+Δθ),
D[p(θ),p(θ+Δθ)]=Δp(xθ)p(xθ)log(1+Δp(xθ)p(xθ))p(xθ)dx.
log(1+Δp(xθ)p(xθ))Δp(xθ)p(xθ),
और इसलिए लेकिन अतः जिसमें
D[p(θ),p(θ+Δθ)](Δp(xθ)p(xθ))2p(xθ)dx.
Δp(xθ)p(xθ)1p(xθ)i=1kp(xθ)θiΔθi=i=1klogp(xθ)θiΔθi.
D[p(θ),p(θ+Δθ)]i,j=1kgijΔθiΔθj,
gij=logp(xθ)θilogp(xθ)θjp(xθ)dx.

यह मूल कागज है:

जेफ़रीज़, एच। (1946)। अनुमान समस्याओं में पूर्व संभावना के लिए एक अपरिवर्तनीय रूप। प्रोक। रॉयल सोसाइटी। लंदन की श्रृंखला ए, 186, 453-461।


1
अच्छा लेखन के लिए बहुत-बहुत धन्यवाद। यह अच्छा होगा यदि आप मदद कर सकते हैं होगा इस रूप में अच्छी तरह।
कुमारा

हां, आपने सही कहा। मुझे इस "अमूर्त जाल" से बाहर आना चाहिए।
कुमारा

@ आप इंटीग्रल के तहत लघुगणक के टेलर विस्तार का उपयोग कर रहे हैं, यह मान्य क्यों है?
सुस 20200

1
ऐसा लगता है कि आप मानक केएल विचलन के विपरीत, सममित केएल विचलन के साथ शुरू करते हैं। विकिपीडिया लेख सममित संस्करण का कोई उल्लेख नहीं करता है, और इसलिए यह संभवतः गलत हो सकता है। en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_diverization
सर्जिकल कमांडर

11

सामान्य (गैर-सममित) केएल विचलन के लिए सबूत

ज़ेन का जवाब सममितीय केएल विचलन का उपयोग करता है, लेकिन परिणाम सामान्य रूप में भी होता है, क्योंकि यह असीम रूप से बंद वितरणों के लिए सममित हो जाता है।

असत्य वितरण के लिए एक प्रमाण यहाँ एक स्केलर (क्योंकि मैं आलसी हूँ) द्वारा दिया गया है, लेकिन निरंतर वितरण या मापदंडों के वेक्टर के लिए आसानी से लिखा जा सकता है:θ

टेलर विस्तार पिछले अवधि: = Σ पी θ लॉग ऑन पी θ - Σ पी θ लॉग पी θ = 0 - डी θ Σ पी θ

D(pθ,pθ+dθ)=pθlogpθpθlogpθ+dθ .
कुछ नियमितताओं को मानते हुए, मैंने दो परिणामों का उपयोग किया है: ities:itiespsomed
=pθlogpθpθlogpθ= 0dθpθddθlogpθ= 0 12dθ2pθd2dθ2logpθ=pθ(ddθlogpθ)2 +O(dθ3)=12dθ2pθ(ddθlogpθ)2Fisher information+O(dθ3).
:pθddθlogpθ=ddθpθ=ddθpθ=0,

:pθd2dθ2logpθ=pθddθ(1pθdpθdθ)=pθ[1pθd2pθdθ(1pθdpθdθ)2]=d2pθdθ2pθ(1pθdpθdθ)2=d2dθ2pθ= 0pθ(ddθlogpθ)2.

4

You can find a similar relationship (for a one-dimensional parameter) in equation (3) of the following paper

D. Guo (2009), Relative Entropy and Score Function: New Information–Estimation Relationships through Arbitrary Additive Perturbation, in Proc. IEEE International Symposium on Information Theory, 814–818. (stable link).

The authors refer to

S. Kullback, Information Theory and Statistics. New York: Dover, 1968.

for a proof of this result.


1
A multivariate version of equation (3) of that paper is proven in the cited Kullback text on pages 27-28. The constant 1/2 seems to have gone missing in the OP's question. :)
cardinal
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.