लोकप्रिय DEFLATE एल्गोरिथ्म Luffel-Ziv के शीर्ष पर हफमैन कोडिंग का उपयोग करता है।
सामान्य तौर पर, यदि हमारे पास डेटा का यादृच्छिक स्रोत (= 1 बिट एन्ट्रापी / बिट) है, तो हफ़मैन सहित कोई एन्कोडिंग, औसतन इसे संपीड़ित करने की संभावना नहीं है। यदि लेम्पेल-ज़िव "परिपूर्ण" थे (जो कि स्रोतों के अधिकांश वर्गों के लिए दृष्टिकोण करता है, क्योंकि लंबाई अनंत तक जाती है), हफ़मैन के साथ पोस्ट एन्कोडिंग मदद नहीं करेगा। बेशक, लेम्पेल-ज़िव परिपूर्ण नहीं है , कम से कम परिमित लंबाई के साथ, और इसलिए कुछ अतिरेक रहता है।
यह यह शेष अतिरेक है जिसे हफ़मैन कोडिंग आंशिक रूप से समाप्त कर देता है और जिससे संपीड़न में सुधार होता है।
मेरा सवाल है: हफमैन कोडिंग और एलजेड द्वारा न केवल इस शेष अतिरेक को सफलतापूर्वक समाप्त क्यों किया गया है? Huffman बनाम LZ के क्या गुण हैं? बस LZ फिर से चल रहा होगा (जो कि LZ के साथ LZ संपीड़ित डेटा को दूसरी बार एन्कोडिंग करता है) कुछ इसी तरह पूरा होता है? यदि नहीं, तो क्यों नहीं? इसी तरह, पहले हफमैन के साथ संपीड़ित करना और फिर एलजेड काम के साथ, और यदि नहीं, तो क्यों?
अद्यतन: यह स्पष्ट है कि LZ के बाद भी कुछ अतिरेक बना रहेगा। कई लोगों ने उस बिंदु को बनाया है। यह स्पष्ट नहीं है: LZ की तुलना में हफमैन द्वारा संबोधित शेष अतिरेक क्यों बेहतर है? मूल स्रोत अतिरेक के साथ इसके विपरीत क्या अद्वितीय है, जहां एलजेड हफमैन की तुलना में बेहतर काम करता है?