एंट्रोपी आपको बताता है कि सिस्टम में कितनी अनिश्चितता है। मान लीजिए कि आप एक बिल्ली की तलाश कर रहे हैं, और आप जानते हैं कि यह आपके घर और पड़ोसियों के बीच कहीं है, जो 1 मील दूर है। अपने बच्चों आपको बता दूँ कि एक बिल्ली पर दूरी जा रहा है की संभावना अपने घर से से सबसे अच्छा वर्णन किया गया है बीटा वितरण च ( एक्स , 2 , 2 ) । तो एक बिल्ली 0 और 1 के बीच कहीं भी हो सकता है, लेकिन अधिक होने की संभावना बीच, यानी में होने की एक्स हूँ एक एक्स = 1 / 2 ।एक्स च( x ; 2 , 2 )एक्समी ए एक्स= 1 / 2
आइए अपने वितरण में बीटा वितरण को प्लग करें, फिर आपको मिलता है ।एच= - 0.125
इसके बाद, आप अपनी पत्नी से पूछते हैं और वह आपको बताती है कि आपकी बिल्ली के ज्ञान का वर्णन करने के लिए सबसे अच्छा वितरण एक समान वितरण है। यदि आप इसे अपने एन्ट्रापी समीकरण में प्लग करते हैं, तो आपको मिलता है ।एच= 0
दोनों समान और बीटा वितरण बिल्ली को आपके घर से 0 और 1 मील के बीच कहीं भी रहने देते हैं, लेकिन वर्दी में अधिक अनिश्चितता है, क्योंकि आपकी पत्नी के पास वास्तव में कोई सुराग नहीं है जहां बिल्ली छिप रही है, जबकि बच्चों को कुछ पता है , उन्हें लगता है कि यह अधिक है बीच में कहीं होने की संभावना है। यही कारण है कि बीटा की एन्ट्रॉपी यूनिफॉर्म की तुलना में कम है।
आप अन्य वितरण कोशिश कर सकते हैं, हो सकता है अपने पड़ोसी आपको बताता है कि बिल्ली के घरों में से किसी के पास होने के लिए पसंद है, इसलिए उसकी बीटा वितरण के साथ है । इसका एच फिर से वर्दी की तुलना में कम होना चाहिए, क्योंकि आपको एक बिल्ली के लिए कहां देखना है, इसके बारे में कुछ पता है। लगता है कि क्या आपके पड़ोसी की जानकारी आपके बच्चों की तुलना में अधिक या कम है? मैं इन मामलों में किसी भी दिन बच्चों पर शर्त लगाता हूँ।α = β= 1 / 2एच
अद्यतन करें:
यह कैसे काम करता है? इस पर विचार करने का एक तरीका एक समान वितरण के साथ शुरू करना है। यदि आप सहमत हैं कि यह सबसे अनिश्चितता वाला एक है, तो इसे परेशान करने के बारे में सोचें। आइए सादगी के लिए असतत मामले को देखें। लो एक बिंदु से और एक अन्य के लिए इसे जोड़ने इस प्रकार की तरह:
पी ' मैं = पी - Δ पी पी ' j = पी + Δ पीΔ पी
पी'मैं= पी - Δ पी
पी'j= पी + Δ पी
अब, चलो देखते हैं कि कैसे एन्ट्रापी परिवर्तन:
= पी ln पी - पी ln [ पी ( 1 - Δ पी / पी ) ] +
एच- एच'= पीमैंlnपीमैं- पीमैंln( पीमैं- Δ पी ) + पीjlnपीj- पीjln( पीj+ Δ पी )
= - ln ( 1 - Δ पी / पी ) - ln ( 1 + Δ पी / पी ) > 0
यह साधन समान वितरण से किसी भी अशांति को कम कर देता है कि एन्ट्रापी (अनिश्चितता)। निरंतर मामले में समान दिखाने के लिए, मुझे इस रेखा के साथ रूपांतरों या किसी चीज़ का उपयोग करना होगा, लेकिन आपको उसी तरह का परिणाम मिलेगा, सिद्धांत रूप में।
= पी एल एनपी - पी एल एन[ पी ( 1 - Δ पी / पी ) ] + पी lnपी - पी एल एन[ पी ( 1 + Δ पी / पी ) ]
= - एल एन( 1 - Δ पी / पी ) - ln( 1 + Δ पी / पी ) > 0
nn → ∞nएन = 1n = 13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'