Dalam kursus analisis numerik saya, saya belajar untuk menganalisis efisiensi algoritma dengan menghitung jumlah operasi floating-point (jepit) yang mereka butuhkan, relatif terhadap ukuran masalah. Misalnya, dalam teks Trefethen & Bau pada Numerical Linear Algebra, bahkan ada gambar 3D yang tampak dari jumlah kegagalan.
Sekarang modis untuk mengatakan bahwa "jepit gratis" karena latensi memori untuk mengambil apa pun yang tidak ada dalam cache jauh lebih besar daripada biaya kegagalan. Tapi kami masih mengajar siswa untuk menghitung jepit, setidaknya dalam kursus analisis numerik. Haruskah kita mengajar mereka untuk menghitung akses memori? Apakah kita perlu menulis buku pelajaran baru? Atau apakah akses memori terlalu spesifik mesin untuk menghabiskan waktu? Apa tren jangka panjang yang akan terjadi dalam hal apakah kegagalan atau akses memori adalah hambatannya?
Catatan: beberapa jawaban di bawah ini sepertinya menjawab pertanyaan yang berbeda seperti "Haruskah saya menulis ulang implementasi saya secara obsesif untuk menghemat beberapa kegagalan atau meningkatkan kinerja cache?" Tetapi apa yang saya tanyakan lebih pada baris " Apakah lebih berguna untuk memperkirakan kompleksitas algoritmik dalam hal operasi aritmatika atau akses memori ?"