Saya memiliki sistem pemrosesan sinyal digital yang beroperasi pada mesin x86 cepat menggunakan angka floating point presisi ganda . Terpikir oleh saya bahwa saya tidak benar-benar menggunakan rentang dinamis yang besar dari representasi floating point - semua jumlah cocok dengan mudah dalam kisaran ± 32768.
Pertanyaan saya: mungkinkah beralih ke perhitungan titik tetap akan memberikan manfaat dalam akurasi numerik (prioritas tinggi) atau waktu komputasi (prioritas rendah)?
Tentu saja, jawabannya tergantung pada berapa banyak bit yang tersedia untuk perhitungan titik tetap. Berapa banyak bit presisi yang digunakan sistem titik tetap tipikal? Apakah mungkin untuk secara efisien melakukan perhitungan titik tetap, dengan, katakanlah, 64 bit ( bagian bilangan bulat 16 bit, bagian pecahan 48 bit ) pada x86-64?
Saya selalu berpikir bahwa perhitungan titik tetap hanya digunakan dalam situasi di mana daya CPU terbatas - apakah masuk akal untuk menggunakan perhitungan titik tetap ketika daya CPU tidak menjadi masalah?