एन्ट्रापी स्थान और पैमाने पर कैसे निर्भर करती है?


14

घनत्व फ़ंक्शन च के साथ एक निरंतर वितरण की एन्ट्रोपी को लॉग ( एफ ) की अपेक्षा के नकारात्मक के रूप में परिभाषित किया गया है , और इसलिए मानदंडflog(f),

Hf=log(f(x))f(x)dx.

हम यह भी कहते हैं कि किसी भी यादृच्छिक चर X जिसका वितरण में घनत्व f है, एन्ट्रापी Hf. (यह इंटीग्रल तब भी अच्छी तरह से परिभाषित है जब f में शून्य हो, क्योंकि log(f(x))f(x) को ऐसे मानों पर बराबर शून्य पर ले जाया जा सकता है।)

जब X और Y यादृच्छिक परिवर्तनीय हैं जिसके लिए Y=X+μ ( μ एक निरंतर है), Y के एक संस्करण होना कहा जाता है X द्वारा स्थानांतरित μ. इसी प्रकार, जब Y=Xσ ( σ एक सकारात्मक स्थिर है), Y कहा जाता है के एक संस्करण होने के लिए X द्वारा बढ़ाया σ.एक स्केल के साथ एक स्केल को जोड़ने पर Y=Xσ+μ.

ये संबंध अक्सर होते हैं। उदाहरण के लिए, X की माप की इकाइयों को बदलना और इसे तराजू।

कैसे की एन्ट्रापी है Y=Xσ+μ की है कि से संबंधित X?

जवाबों:


17

चूँकि X का संभाव्यता तत्व f(x)dx, चर y=xσ+μ का परिवर्तन x=(yμ)/σ, है

f(x)dx=f(yμσ)d(yμσ)=1σf(yμσ)dy

यह निम्नानुसार है कि Y का घनत्व है

fY(y)=1σf(yμσ).

नतीजतन Y की एन्ट्रापी है

H(Y)=log(1σf(yμσ))1σf(yμσ)dy

जो, चर वापस बदल रहा है पर x=(yμ)/σ, पैदा करता है

H(Y)=log(1σf(x))f(x)dx=(log(1σ)+log(f(x)))f(x)dx=log(σ)f(x)dxlog(f(x))f(x)dx=log(σ)+Hf.

f(x)dx

निष्कर्ष है

Y=Xσ+μXlog(σ).

σ1log(σ).


μσ(μ,σ)μ=0σ=1.

log(f(x))=12log(2π)x2/2,

जहां से

H=E[12log(2π)X2/2]=12log(2π)+12.

(μ,σ)logσ

H=12log(2π)+12+log(σ)=12log(2πeσ2)

जैसा कि विकिपीडिया द्वारा रिपोर्ट किया गया है

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.