Ini adalah pertanyaan desain perangkat lunak
Saya dulu bekerja pada aturan berikut untuk kecepatan
cache memory > memory > disk > network
Dengan setiap langkah menjadi 5-10 kali langkah sebelumnya (mis. Memori cache 10 kali lebih cepat dari memori utama).
Sekarang, tampaknya ethernet gigabit memiliki latensi lebih sedikit daripada disk lokal. Jadi, mungkin operasi untuk membaca dari DB dalam-memori jauh yang besar lebih cepat daripada pembacaan disk lokal. Ini terasa seperti bid'ah untuk timer lama seperti saya. (Saya baru saja menghabiskan waktu membangun cache lokal pada disk untuk menghindari keharusan melakukan network round trip - maka pertanyaan saya)
Adakah yang punya pengalaman / angka / saran di bidang ini?
Dan ya saya tahu bahwa satu-satunya cara nyata untuk mengetahuinya adalah dengan membangun dan mengukur, tetapi saya bertanya-tanya tentang aturan umum.
edit :
Ini adalah data menarik dari jawaban teratas:
Perjalanan pulang pergi dalam pusat data yang sama 500.000 ns
Disk mencari 10.000.000 ns
Ini mengejutkan bagi saya; model mental saya adalah bahwa perjalanan pulang-pergi secara inheren lambat. Dan tidak - 10x lebih cepat dari disk 'perjalanan pulang'.
Jeff attwood memposting blog yang bagus ini dengan topik http://blog.codinghorror.com/the-infinite-space-between-words/