Untuk banyak masalah, algoritma dengan kompleksitas asimptotik terbaik memiliki faktor konstan yang sangat besar yang disembunyikan oleh notasi O besar. Ini terjadi dalam perkalian matriks, perkalian integer (khususnya, algoritma multiplikasi integer O (n log n) baru-baru ini dari Harvey dan van der Hoeven), jaringan sortasi rendah-kedalaman dan menemukan grafik di bawah umur, untuk membuat beberapa. Algoritma seperti itu kadang-kadang disebut algoritma Galactic.
Perhatikan bahwa untuk algoritma lain, seperti penyortiran umum dan penambahan bilangan bulat, algoritma dikenal dengan kompleksitas asimptotik yang optimal dan faktor kecil yang konstan.
Apa penelitian yang telah dilakukan dalam memisahkan algoritma yang terdahulu dari algoritma yang terakhir, dari perspektif teoretis?
Saya sadar bahwa konstanta tersembunyi sering dihilangkan untuk menyembunyikan perbedaan antara model komputasi yang berbeda. Namun, saya yakin bahwa di bawah berbagai model yang berbeda, algoritma Galactic ini akan lebih lambat daripada algoritma asymptotically buruk untuk input ukuran satu miliar, misalnya. Perbedaannya tidak halus, dalam beberapa kasus. Apakah sudah dibuat ketat?
Sebagai contoh, seseorang dapat menciptakan model perhitungan yang sangat sederhana, seperti mesin von Neumann dengan ISA yang sangat sederhana, dan kemudian mengimplementasikan algoritme dan mengikat waktu menjalankannya dengan konstanta eksplisit. Apakah ini sudah dilakukan untuk berbagai algoritma?