Saya diberitahu bahwa kebanyakan komputer modern mengikuti standar floating point yang sama, apakah ini berarti mereka semua akan mendapatkan jawaban float yang sama untuk operasi matematika yang diberikan jika inputnya sama?
Saya bertanya karena saya sedang meneliti cara membuat game RTS di jaringan, dan menyinkronkan ratusan posisi unit terdengar seperti cara yang buruk.
Jadi jika saya hanya mengirim input saja, saya perlu menjamin semua klien mendapatkan hasil yang sama dengan meminta mereka menjalankan simulasi dari input tersebut.
Saya membaca bahwa game RTS yang lebih lama menggunakan aritmatika titik tetap, tetapi saya tidak tahu apakah itu masih diperlukan pada komputer modern jika semuanya mematuhi standar yang sama? Saya juga diberitahu bahwa meskipun tidak tepat, hasil floating point adalah deterministik untuk input yang sama (yang saya anggap komputer mana pun yang mengikuti standar yang sama mendapatkan hasil yang tidak tepat sama?).
Apakah komputer masih memiliki penyimpangan bahkan jika mereka mengikuti standar float point yang sama?
Saya menulis game ini di C # tidak yakin apakah itu penting, saya pikir saya akan menyebutkannya.