Angka floating point presisi tunggal mengambil setengah memori dan pada mesin modern (bahkan pada GPU tampaknya) operasi dapat dilakukan dengan mereka pada kecepatan hampir dua kali lipat dibandingkan dengan presisi ganda. Banyak kode FDTD yang saya temukan secara eksklusif menggunakan aritmatika dan penyimpanan presisi tunggal. Apakah ada aturan praktis tentang kapan dapat diterima untuk menggunakan presisi tunggal untuk memecahkan sistem persamaan skala kecil? Saya menganggap itu harus sangat bergantung pada nomor kondisi matriks.
Selain itu, apakah ada teknik yang efektif yang menggunakan presisi ganda jika diperlukan dan tunggal di mana akurasi ganda tidak diperlukan. Sebagai contoh, saya akan berpikir bahwa untuk perkalian vektor matriks atau produk dot vektor, mungkin ide yang baik untuk mengakumulasi hasil dalam variabel presisi ganda (untuk menghindari kesalahan pembatalan), tetapi entri individual dikalikan satu sama lain dapat dikalikan menggunakan presisi tunggal.
Apakah FPU modern memungkinkan konversi dari presisi tunggal (float) ke presisi ganda (ganda) dan sebaliknya? Atau apakah ini operasi yang mahal?