Mengapa pengkodean Huffman menghilangkan entropi yang tidak dimiliki Lempel-Ziv?


13

Algoritma DEFLATE populer menggunakan Huffman coding di atas Lempel-Ziv.

Secara umum, jika kita memiliki sumber data acak (= 1 bit entropi / bit), tidak ada pengkodean, termasuk Huffman, yang cenderung memampatkannya secara rata-rata. Jika Lempel-Ziv "sempurna" (yang mendekati untuk sebagian besar kelas sumber, karena panjangnya hingga tak terbatas), posting pengkodean dengan Huffman tidak akan membantu. Tentu saja, Lempel-Ziv tidak sempurna, setidaknya dengan panjang yang terbatas, dan masih ada beberapa redundansi yang tersisa.

Ini adalah redundansi yang tersisa dimana pengkodean Huffman menghilangkan sebagian dan dengan demikian meningkatkan kompresi.

Pertanyaan saya adalah: Mengapa sisa redudansi ini berhasil dihilangkan dengan pengkodean Huffman dan bukan LZ? Apa sifat Huffman versus LZ yang membuat ini terjadi? Apakah hanya menjalankan LZ lagi (yaitu, pengkodean data terkompresi LZ dengan LZ kedua kalinya) mencapai sesuatu yang serupa? Jika tidak, mengapa tidak? Demikian juga, akan lebih dulu mengompresi dengan Huffman dan kemudian setelah itu dengan LZ bekerja, dan jika tidak, mengapa

UPDATE: Jelas bahwa bahkan setelah LZ, beberapa redundansi akan tetap ada. Beberapa orang telah menyatakan hal itu. Yang tidak jelas adalah: Mengapa sisa redundansi lebih baik ditangani oleh Huffman daripada LZ? Apa yang unik tentang itu berbeda dengan redundansi sumber asli, di mana LZ bekerja lebih baik daripada Huffman?

Jawaban:


13

Ini awalnya komentar, tapi terlalu lama.

Jika Anda melihat DEFLATE, apa yang sedang dikompresi oleh Huffman adalah output dari LZ77; LZ77 bekerja dengan (saat ini membutuhkan bit lebih sedikit dari data mentah) mengirim pointer lebih awal ke string yang dikompresi, dan panjang kecocokan yang memberitahu berapa banyak simbol yang harus diambil setelah pointer. Teori ini menunjukkan bahwa, bahkan tanpa kompresi tambahan, teknik ini pada akhirnya menyatu dengan entropi sumber. Namun, dalam kompresi data, setiap kali Anda memiliki distribusi yang tidak sepenuhnya acak, Anda mungkin perlu mengompresnya. Tidak ada alasan untuk percaya bahwa output LZ77 - pointer dan panjang pertandingan - sepenuhnya acak. Mereka harus bertemu untuk menyelesaikan keacakan dalam batas asimptotik, karena LZ77 optimal asimptotik, tetapi dalam praktiknya Anda hanya menggunakan kamus terbatas, jadi mereka mungkin tinggal cukup jauh dari benar-benar acak sehingga Anda menang dengan melakukan kompresi lebih lanjut pada mereka. Secara alami, Anda menggunakan satu kode Huffman untuk pointer dan lainnya untuk panjang pertandingan, karena kedua proses ini memiliki statistik yang berbeda.

Mengapa menggunakan Huffman daripada LZ untuk putaran kedua kompresi? Keuntungan besar yang dimiliki LZ dibandingkan Huffman adalah dalam merawat ketergantungan antar simbol. Dalam bahasa Inggris, jika satu huruf adalah 'q', yang berikutnya sangat mungkin menjadi 'u', dan seterusnya. Jika simbol adalah peristiwa independen, maka Huffman lebih sederhana dan berfungsi dengan baik atau lebih baik untuk string pendek. Untuk keluaran LZ77, intuisi saya adalah bahwa simbol-simbolnya harus cukup independen, jadi Huffman harus bekerja lebih baik.


Saya bersama Anda di paragraf 1 Anda: LZ masih menyisakan redundansi untuk kompres lebih lanjut. Tapi paragraf ke-2 Anda tampaknya masih melompat, jika tidak melambaikan tangan Ada dua pernyataan: 1. Redundansi yang tersisa setelah LZ adalah urutan-nol (yaitu, p (X_n) kira-kira tidak tergantung pada x_n-1; Saya menggunakan istilah urutan-nol seperti pada model urutan-nol, misalnya data-compression.com/theory.shtml ) dan 2. Pada redundansi orde nol, Huffman bekerja lebih baik daripada LZ; Pada redundansi tingkat tinggi, LZ bekerja lebih baik. Mungkin pernyataan ini sama-sama benar, tetapi Anda belum membenarkannya juga
SRobertJames

2
@ Robert: Korelasi tingkat tinggi tidak berpengaruh apa pun pada pengkodean Huffman. LZ bekerja secara asimptotik secara optimal untuk redundansi tingkat tinggi, tetapi overhead tambahan yang diperlukan berarti bahwa ia tidak bekerja dengan baik pada sumber-sumber nol-panjang-terbatas. Ini pasti telah dipelajari secara eksperimental dalam literatur di suatu tempat; mungkin orang lain bisa memberikan pointer ke referensi. Untuk poin 1, intuisi saya adalah bahwa redundansi tingkat tinggi yang tersisa setelah LZ terlalu rumit untuk digunakan dalam skema pengkodean sederhana, tetapi saya tidak memiliki cara yang baik untuk membenarkan hal ini.
Peter Shor

10

Kompresi data sebenarnya tentang dua hal: pemodelan dan pengodean. Algoritma dari keluarga LZ memodelkan teks sebagai gabungan dari pengulangan yang tepat, yang secara asimtotik optimal untuk banyak sumber acak dan cukup baik untuk banyak teks nyata. Namun untuk beberapa input, model ini bisa sangat buruk. Misalnya, Anda tidak dapat menggunakan LZ untuk mengompres array suffix secara langsung, meskipun array suffix sama kompresinya dengan teks aslinya.

(hal,,c)halc

catatannn

Jadi singkatnya, Huffman mengalahkan LZ dalam mengompresi tupel, karena modelnya (distribusi tetap vs pengulangan yang tepat) lebih cocok untuk data.


Terima kasih, Jouni. Kedengarannya seperti redundansi utama yang tersisa adalah bahwa panjang rep biasanya lebih kecil daripada lebih besar (tidak terdistribusi secara merata pada [0,2 ^ n]). Huffman bekerja dengan baik pada asimetri urutan nol ini, sedangkan LZ benar-benar membutuhkan fitur yang lebih besar untuk bekerja dengan baik. Apakah itu benar? Dan mengapa tidak menggunakan Huffman untuk memulai - mengapa repot-repot dengan LZ sama sekali?
SRobertJames

3
Jika kita mengompres teks secara langsung dengan Huffman, kita tidak bisa mendapatkan kompresi yang lebih baik daripada entropi orde-nol. Namun, sebagian besar teks nyata memiliki sumber redundansi yang signifikan yang tidak dapat dimodelkan secara memadai dengan entropi orde-nol. Dalam banyak kasus, menggunakan LZ sebelum Huffman memungkinkan kita untuk mengompres redundansi ini.
Jouni Sirén

2

Saya percaya jawabannya terletak pada ukuran kamus pencarian.

Data memiliki sense of locality (artinya, jika sepotong data telah digunakan, kemungkinan akan segera digunakan kembali), dan algoritma LZ mengambil keuntungan dari hal ini dalam pembuatan kamus pencarian. Ini menghasilkan sebuah trie dengan jumlah node yang mungkin terbatas, untuk menjaga pencarian tetap cepat . Ketika menyentuh batas ukuran, itu membuat trie lain, "lupa" tentang yang sebelumnya. Jadi itu harus membangun lagi tabel pencarian untuk karakter yang lebih sederhana, tetapi jika beberapa kata tidak digunakan lagi, mereka tidak disimpan dalam memori lagi, sehingga pengkodean yang lebih kecil dapat digunakan.

Oleh karena itu, output LZ dapat dikurangi lebih jauh dengan pengkodean Huffman, untuk redundansi dalam pembuatan percobaan pencarian ini dapat dideteksi dengan analisis statistik.


Saya menerima paragraf pertama: Anda menjelaskan mengapa LZ meninggalkan kelebihan. Tapi paragraf kedua tampaknya cukup lompatan: Mengapa Huffman menangkap redundansi ini? Kenapa tidak LZ lagi? Dan, jika Huffman lebih komprehensif, mengapa tidak memulainya saja?
SRobertJames

2

Mungkin saya keluar jalur di sini, tetapi pengkodean Huffman melihat seluruh input untuk membangun tabel pengodeannya (pohon), sedangkan Lempel-Ziv mengkodekan saat berjalan. Ini merupakan keuntungan dan kerugian bagi Huffman. Ketidaksukaan itu menyimpang, yaitu bahwa kita harus melihat seluruh masukan sebelum kita mulai. Keuntungannya adalah bahwa Huffman akan memperhitungkan statistik akun yang terjadi di mana saja di input, sedangkan Lempel-Ziv harus membangunnya secara progresif. Atau dengan kata lain, Lempel-Ziv memiliki "arah" yang tidak dimiliki Huffman.

Tetapi semua ini hanyalah cara naif saya untuk membayangkan bagaimana keadaannya. Kita akan membutuhkan bukti nyata di sini untuk melihat bagaimana sebenarnya Huffman mengungguli Lempel-Ziv.


2
Orang-orang telah mendefinisikan pengkodean Huffman adaptif, yang hanya melihat input sekali saja. Untuk keperluan diskusi ini, pengkodean Huffman yang adaptif dan non-adaptif akan berperilaku serupa.
Peter Shor

2

Jawaban singkatnya adalah, LZ adalah algoritma "universal" karena tidak perlu mengetahui distribusi sumber yang tepat (hanya perlu asumsi bahwa sumbernya diam dan ergodik). Tapi Huffman tidak; perlu mengetahui distribusi yang tepat dari mana sumber sampel (untuk membuat pohon Huffman). Informasi tambahan ini membuat Huffman mendapatkan jaminan kompresi yang ketat. Namun untuk algoritma kompresi file praktis Huffman mungkin kurang menguntungkan karena pertama-tama perlu mengumpulkan statistik empiris file dan kemudian melakukan kompresi yang sebenarnya di babak kedua, sementara LZ dapat diimplementasikan secara online.

Rincian lebih lanjut dapat ditemukan dalam teks teori informasi standar, misalnya, Elemen Teori Informasi oleh Cover dan Thomas.


Saya pikir sumber ergodik stasioner hanyalah sebuah asumsi yang membuat LZ lebih mudah untuk dianalisis. Bagaimanapun, kompresi didasarkan pada sifat kombinatorial dari input, yang kebetulan bertepatan dengan baik dengan sifat statistik dalam banyak kasus. Pertimbangkan, misalnya, kumpulan teks bahasa Inggris dalam format teks biasa, diikuti oleh teks yang sama dalam format HTML. LZ memampatkan koleksi ini dengan cukup baik, meskipun itu tidak terlihat seperti sesuatu yang dihasilkan oleh sumber ergodik stasioner.
Jouni Sirén

@ Jouni: Saya tidak setuju dengan komentar ini; Saya pikir dalam beberapa hal, teks biasa bahasa Inggris terlihat sangat mirip dengan sumber ergodik stasioner, dan kemiripan inilah yang dimanfaatkan LZ.
Peter Shor

@ Peter: Tapi dalam kasus ini, sumber pertama-tama menghasilkan beberapa teks dalam format teks biasa, dan kemudian persis teks yang sama dalam format HTML. Perubahan ini dari teks biasa ke HTML di beberapa titik sewenang-wenang tampaknya mematahkan properti stasioner ergodik. Di sisi lain, hasil kompresi jauh lebih baik daripada saat mengompresi teks biasa dan teks HTML secara terpisah, karena ada banyak informasi timbal balik antara teks dalam format teks biasa dan teks yang sama dalam format HTML.
Jouni Sirén
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.