कुल्बैक-लीब्लर डाइवर्जेंस एक मीट्रिक उचित नहीं है, क्योंकि यह सममित और भी नहीं है, यह त्रिभुज असमानता को संतुष्ट नहीं करता है। तो दो वितरणों द्वारा निभाई गई "भूमिकाएं" अलग हैं, और अध्ययन के तहत वास्तविक दुनिया की घटना के अनुसार इन भूमिकाओं को वितरित करना महत्वपूर्ण है।
जब हम लिखते हैं (ओपी ने आधार -2 लघुगणक का उपयोग करके अभिव्यक्ति की गणना की है)
K(P||Q)=∑ilog2(pi/qi)pi
हम वितरण को "लक्ष्य वितरण" मानते हैं (आमतौर पर इसे सही वितरण माना जाता है), जिसे हम Q वितरण का उपयोग करके अनुमानित करते हैं ।PQ
अभी,
∑ilog2(pi/qi)pi=∑ilog2(pi)pi−∑ilog2(qi)pi=−H(P)−EP(ln(Q))
जहाँ वितरण P की शैनन एन्ट्रापी है और - E P ( ln ( Q ) ) को " P और Q का क्रॉस-एन्ट्रापी" कहा जाता है - गैर-सममित।H(P)P−EP(ln(Q))PQ
लिख रहे हैं
K(P||Q)=H(P,Q)−H(P)
P
तो, नहीं , केएल-विचलन को वितरण के बीच "दूरी के उपाय" के रूप में व्याख्या नहीं किया जाना बेहतर है , बल्कि सच्चे वितरण के बजाय वास्तविक वितरण के लिए एक सन्निकटन के उपयोग के कारण एन्ट्रापी वृद्धि के उपाय के रूप में ।
इसलिए हम सूचना सिद्धांत भूमि में हैं। इसे मास्टर्स (कवर एंड थॉमस) से सुनने के लिए "
PH(P)QH(P)+K(P||Q)
वही बुद्धिमान लोग कहते हैं
... यह वितरण के बीच एक सच्ची दूरी नहीं है क्योंकि यह सममित नहीं है और त्रिकोण असमानता को संतुष्ट नहीं करता है। फिर भी, वितरण के बीच "दूरी" के रूप में सापेक्ष एन्ट्रॉपी के बारे में सोचना अक्सर उपयोगी होता है।
लेकिन यह बाद का दृष्टिकोण मुख्य रूप से उपयोगी होता है जब कोई अनुमान लगाने की प्रक्रिया का अनुकूलन करने के लिए केएल-विचलन को कम करने का प्रयास करता है । प्रति अंकों के अपने संख्यात्मक मूल्य की व्याख्या के लिए , यह उपयोगी नहीं है, और किसी को "एन्ट्रापी वृद्धि" दृष्टिकोण पसंद करना चाहिए।
प्रश्न के विशिष्ट वितरण के लिए (हमेशा आधार -2 लघुगणक का उपयोग करके)
K(P||Q)=0.49282,H(P)=1.9486
QP