Pertanyaan ini mirip dengan pertanyaan yang lebih umum tentang apa model teoritis yang tepat dari komputer untuk merancang algoritma dan struktur data.
Di sini, saya bertanya secara khusus tentang komputer berkinerja tinggi saat ini (seperti yang terdaftar sebagai Top 500 ) atau bahkan tentang superkomputer mendatang.
Mengingat bahwa komputer ini biasanya bekerja pada kumpulan data yang sangat besar (tampaknya beberapa orang menggunakan mesin tersebut terutama karena mereka memiliki memori utama gabungan yang sangat besar) aspek model I / O (diperkenalkan oleh Aggarwal dan Vitter pada tahun 1988 ) dan versi paralelnya. , PEM ( Arge, Goodrich, Nelson dan Sitchinava pada 2008 ) harus hadir. Di sisi lain, harus ada sesuatu tentang komunikasi, khususnya menghukum paket ultra kecil ke semua node komputasi lainnya.
Seperti yang mungkin Anda bayangkan, saya tidak takut kehabisan ide ketika membuat model baru, tetapi saya sedikit khawatir bahwa saya mungkin mengabaikan upaya sebelumnya dalam melakukannya, khususnya karena saya memiliki kesan bahwa tahun 1980- 1995 atau lebih melihat banyak upaya pemodelan seperti itu (seperti BSP atau model bridging) yang tampaknya belum banyak digunakan.
Model apa yang harus saya perhatikan lebih dekat?