Saya bekerja di lingkungan di mana sumber daya komputasi dibagi, yaitu, kami memiliki beberapa mesin server yang masing-masing dilengkapi dengan beberapa GPU Nvidia Titan X.
Untuk model ukuran kecil hingga sedang, 12 GB Titan X biasanya cukup untuk 2-3 orang untuk menjalankan pelatihan secara bersamaan pada GPU yang sama. Jika model cukup kecil sehingga satu model tidak mengambil keuntungan penuh dari semua unit komputasi GPU, ini sebenarnya dapat menghasilkan percepatan dibandingkan dengan menjalankan satu proses pelatihan setelah yang lainnya. Bahkan dalam kasus-kasus di mana akses konkuren ke GPU memperlambat waktu pelatihan individu, tetap menyenangkan memiliki fleksibilitas memiliki banyak pengguna yang secara bersamaan berlatih menggunakan GPU.
Masalah dengan TensorFlow adalah bahwa, secara default, ini mengalokasikan jumlah penuh memori GPU yang tersedia saat diluncurkan. Bahkan untuk jaringan saraf dua lapis yang kecil, saya melihat bahwa semua 12 GB memori GPU habis.
Apakah ada cara untuk membuat TensorFlow hanya mengalokasikan, katakanlah, 4 GB memori GPU, jika ada yang tahu bahwa ini cukup untuk model yang diberikan?