अंतर एन्ट्रापी की कोई व्याख्या नहीं है जो एन्ट्रापी की तरह सार्थक या उपयोगी होगी। निरंतर यादृच्छिक चर के साथ समस्या यह है कि उनके मूल्यों में आमतौर पर 0 संभावना है, और इसलिए सांकेतिक शब्दों में बदलना करने के लिए अनंत संख्या में बिट्स की आवश्यकता होगी।
यदि आप अंतराल की संभावना को मापने के लिए अंतराल की सीमा को देखते हैं , तो आप समाप्त करते हैं[nε,(n+1)ε[
−∫p(x)log2p(x)dx−log2ε
और अंतर एन्ट्रापी नहीं। यह मात्रा एक अर्थ में अधिक सार्थक है, लेकिन हम छोटे और छोटे अंतराल के रूप में अनंत को विचलन करेंगे। यह समझ में आता है, क्योंकि हमें अधिक से अधिक बिट्स की आवश्यकता होगी, जिसमें कि कई अंतरालों में हमारे यादृच्छिक मूल्य के मूल्य में गिरावट आती है।
निरंतर वितरण के लिए देखने के लिए एक अधिक उपयोगी मात्रा सापेक्ष एन्ट्रॉपी (कुल्बैक-लीब्लर विचलन भी है)। असतत वितरण के लिए:
DKL[P||Q]=∑xP(x)log2P(x)Q(x).
इसका उपयोग करके सही वितरण है अतिरिक्त बिट्स की संख्या उपायों , लेकिन हम का उपयोग के लिए एनकोड बिट्स । हम सापेक्ष एन्ट्रापी की सीमा ले सकते हैं और यहां आ सकते हैंP−logQ2(x)x
DKL[p∣∣q]=∫p(x)log2p(x)q(x)dx,
क्योंकि रद्द हो जाएगा। निरंतर वितरण के लिए यह असीम रूप से छोटे डिब्बे की सीमा में उपयोग किए जाने वाले अतिरिक्त बिट्स की संख्या से मेल खाती है। निरंतर और असतत वितरण दोनों के लिए, यह हमेशा गैर-नकारात्मक होता है।log2ε
अब, हम और एक असामान्य घनत्व बीच नकारात्मक सापेक्ष एन्ट्रापी के रूप में अंतर एन्ट्रापी के बारे में सोच सकते हैं ।p(x)λ(x)=1
−∫p(x)log2p(x)dx=−DKL[p∣∣λ].
इसकी व्याख्या का उपयोग करके आवश्यक बिट्स की संख्या में अंतर होगा बिट्स -th अंतराल को एन्कोड करने के लिए of बिट्स। भले ही पूर्व इष्टतम होगा, यह अंतर अब नकारात्मक हो सकता है, क्योंकि धोखा दे रहा है (1 को एकीकृत नहीं करके) और इसलिए सैद्धांतिक रूप से औसत से कम बिट्स असाइन कर सकता है।−log2∫(n+1)εnεp(x)dxn−logελ
रिश्तेदार एन्ट्रापी के लिए एक महान परिचय के लिए सर्जियो वर्दु की बात देखें ।