एक प्रायिकता वितरण के लिए Huffman कोड न्यूनतम भारित औसत codeword लंबाई के साथ उपसर्ग कोड है , जहां की लंबाई है वें codword। यह एक प्रसिद्ध प्रमेय है कि हफमैन कोड के प्रतीक की औसत लंबाई और , जहाँ प्रायिकता वितरण की शैनन एंट्रोपी है।
विहित बुरा उदाहरण, जहां औसत लंबाई शैनन एन्ट्रापी से लगभग 1 से अधिक है, एक प्रायिकता है जैसे कि , जहां एन्ट्रापी लगभग 0 है, और औसत कोडवर्ड लंबाई 1. है। लगभग के एन्ट्रापी और कोडवर्ड की लंबाई के बीच ।
लेकिन क्या होता है जब संभावना वितरण में सबसे बड़ी संभावना पर बाध्य होता है? उदाहरण के लिए मान लीजिए कि सभी संभावनाएँ 1 से कम हैं । इस मामले में मुझे जो सबसे बड़ा अंतर मिल सकता है, वह प्रायिकता वितरण जैसे, जहां एन्ट्रापी 1 से थोड़ी अधिक है और औसत कोडवर्ड की लंबाई 1.5 से थोड़ी कम है, जिससे गैप एप्रोच हो रहा है।। क्या यह सबसे अच्छा आप कर सकते हैं? क्या आप उस खाई पर एक ऊपरी सीमा दे सकते हैं जो इस मामले के लिए सख्ती से 1 से कम है?
अब, चलो उस मामले पर विचार करें जहां सभी संभावनाएं बहुत छोटी हैं। मान लीजिए कि आप अक्षरों पर प्रायिकता वितरण चुनते हैं , प्रत्येक में प्रायिकता । इस स्थिति में, सबसे बड़ा अंतर तब होता है जब आप चुनते हैं । यहाँ, आपको लगभग
यह प्रश्न इस TCS स्टैकएक्सचेंज प्रश्न से प्रेरित था ।