Dalam teori pengkodean, 'seberapa bagus suatu kode' berarti berapa banyak kesalahan saluran dapat diperbaiki, atau lebih baik, tingkat kebisingan maksimal yang dapat ditangani oleh kode tersebut.
Untuk mendapatkan kode yang lebih baik, kode dirancang menggunakan alfabet besar (bukan biner). Dan kemudian, kodenya bagus jika dapat menangani tingkat besar "simbol" yang salah.
Mengapa ini tidak dianggap kecurangan? Maksudku, bukankah kita hanya peduli tentang apa yang terjadi ketika kita "menerjemahkan" setiap simbol menjadi string biner? "Tingkat kesalahan bit" berbeda dari tingkat "kesalahan simbol". Sebagai contoh, laju bit-error tidak bisa lebih dari 1/2 sementara (jika saya mengerti ini dengan benar), dengan alfabet yang cukup besar, kesalahan simbol bisa naik ke . Apakah ini karena kita secara artifisial membatasi saluran hanya untuk mengubah "simbol" daripada bit, atau apakah karena kode sebenarnya lebih baik?