Saya menjalankan jaringan saraf pembelajaran yang dalam yang telah dilatih oleh GPU. Saya sekarang ingin menyebarkan ini ke beberapa host untuk inferensi. Pertanyaannya adalah apa syarat untuk memutuskan apakah saya harus menggunakan GPU atau CPU untuk inferensi?
Menambahkan lebih banyak detail dari komentar di bawah.
Saya baru dalam hal ini sehingga panduan sangat dihargai.
Memori : GPU adalah K80
Kerangka kerja : Cuda dan cuDNN
Ukuran data per beban kerja : 20G
Komputasi node untuk dikonsumsi : satu per pekerjaan, meskipun ingin mempertimbangkan opsi skala
Biaya : Saya mampu membeli opsi GPU jika alasannya masuk akal
Penerapan : Berjalan di server bare metal yang di-host sendiri, bukan di cloud.
Saat ini saya menggunakan CPU hanya karena aplikasi berjalan ok. Tetapi di luar alasan itu, saya tidak yakin mengapa orang akan mempertimbangkan GPU.