Anda bertanya:
- Apakah ini benar-benar layak seperti yang disarankan oleh penulis? Menurut kertas, hasilnya sangat efisien dan selalu kompres data ke ukuran yang lebih kecil. Bukankah ukuran kamus akan sangat besar?
Ya tentu saja. Bahkan untuk contoh pilihan mereka sendiri ("FOX SILVER CEPAT MELOMPAT DARI LAZY DOG"), mereka tidak mencapai kompresi, karena kamus berisi setiap substring teks 4-byte (minus 4 byte untuk satu pengulangan dari ") THE ") ... dan versi" terkompresi "dari teks harus menyertakan seluruh kamus plus semua omong kosong bilangan prima ini.
- Tidak bisakah ini digunakan untuk secara berulang mengkompres ulang data yang dikompres menggunakan algoritma yang sama? Jelas, dan telah didemonstrasikan, bahwa teknik seperti itu (di mana data yang dikompresi kembali dikompresi sebanyak mungkin, secara dramatis mengurangi ukuran file) tidak mungkin; memang, tidak akan ada penipisan antara set semua data acak dan data terkompresi. Jadi mengapa ini terasa mungkin?
Sekali lagi Anda tampaknya memiliki pemahaman intuitif yang baik tentang situasi tersebut. Anda secara intuitif menyadari bahwa tidak ada skema kompresi yang bisa efektif pada semua input, karena jika ya, kita bisa menerapkannya berulang-ulang untuk mengompresi input apa pun menjadi satu bit - dan kemudian ke ketiadaan!
Dengan kata lain: Setelah Anda mengompres semua file .wav Anda ke .mp3, Anda tidak akan mendapatkan peningkatan dalam ukuran file dengan zip mereka. Jika kompresor MP3 Anda telah melakukan tugasnya, tidak akan ada pola yang tersisa untuk dieksploitasi oleh kompresor ZIP.
(Hal yang sama berlaku untuk enkripsi: jika saya mengambil file nol dan mengenkripsi sesuai dengan algoritma kriptografi pilihan saya, file yang dihasilkan lebih baik tidak kompresibel , atau algoritma enkripsi saya bocor "pola" ke dalam outputnya!)
- Bahkan jika tekniknya belum sempurna, itu jelas dapat dioptimalkan dan sangat ditingkatkan. Mengapa ini tidak banyak diketahui / dipelajari? Jika memang klaim dan hasil eksperimen ini benar, tidak bisakah ini merevolusi komputasi?
Klaim dan hasil eksperimen ini tidak benar.
Seperti yang telah dicatat oleh Tom van der Zanden, "algoritma kompresi" Chakraborty, Kar, dan Guchait cacat karena tidak hanya tidak mencapai rasio kompresi, tetapi juga ireversibel (dalam matematika, "tidak bijektif"): ada banyak teks yang semuanya "kompres" ke gambar yang sama, karena algoritme mereka pada dasarnya adalah perkalian dan perkalian adalah komutatif.
Anda harus merasa senang bahwa pemahaman intuitif Anda tentang konsep-konsep ini membawa Anda ke kesimpulan yang tepat secara instan. Dan, jika Anda dapat meluangkan waktu, Anda harus merasa kasihan kepada penulis makalah yang jelas menghabiskan banyak waktu untuk memikirkan topik tersebut tanpa memahaminya sama sekali.
Direktori file satu tingkat di atas URL yang Anda posting berisi 139 "makalah" dengan kualitas yang sama, semua tampaknya diterima ke dalam "Prosiding Konferensi Internasional tentang Penelitian yang Berkembang dalam Komputasi, Informasi, Komunikasi dan Aplikasi." Tampaknya ini adalah konferensi palsu dari tipe yang biasa. Tujuan konferensi semacam itu adalah untuk memungkinkan akademisi yang curang mengklaim "publikasi dalam jurnal", sementara juga memungkinkan penyelenggara yang tidak bermoral menghasilkan banyak uang. (Untuk informasi lebih lanjut tentang konferensi palsu, lihat utas reddit ini atau berbagai posting StackExchange tentang hal ini .) Konferensi palsu ada di setiap bidang. Belajarlah untuk memercayai naluri Anda dan tidak percaya semua yang Anda baca dalam "proses konferensi", dan Anda akan baik-baik saja.