Algoritma DEFLATE populer menggunakan Huffman coding di atas Lempel-Ziv.
Secara umum, jika kita memiliki sumber data acak (= 1 bit entropi / bit), tidak ada pengkodean, termasuk Huffman, yang cenderung memampatkannya secara rata-rata. Jika Lempel-Ziv "sempurna" (yang mendekati untuk sebagian besar kelas sumber, karena panjangnya hingga tak terbatas), posting pengkodean dengan Huffman tidak akan membantu. Tentu saja, Lempel-Ziv tidak sempurna, setidaknya dengan panjang yang terbatas, dan masih ada beberapa redundansi yang tersisa.
Ini adalah redundansi yang tersisa dimana pengkodean Huffman menghilangkan sebagian dan dengan demikian meningkatkan kompresi.
Pertanyaan saya adalah: Mengapa sisa redudansi ini berhasil dihilangkan dengan pengkodean Huffman dan bukan LZ? Apa sifat Huffman versus LZ yang membuat ini terjadi? Apakah hanya menjalankan LZ lagi (yaitu, pengkodean data terkompresi LZ dengan LZ kedua kalinya) mencapai sesuatu yang serupa? Jika tidak, mengapa tidak? Demikian juga, akan lebih dulu mengompresi dengan Huffman dan kemudian setelah itu dengan LZ bekerja, dan jika tidak, mengapa
UPDATE: Jelas bahwa bahkan setelah LZ, beberapa redundansi akan tetap ada. Beberapa orang telah menyatakan hal itu. Yang tidak jelas adalah: Mengapa sisa redundansi lebih baik ditangani oleh Huffman daripada LZ? Apa yang unik tentang itu berbeda dengan redundansi sumber asli, di mana LZ bekerja lebih baik daripada Huffman?