Ini adalah masalah penyelarasan prosesor virtual (VP) ke prosesor fisik (PP) GPU. Karena jumlah PP sering kekuatan 2, menggunakan sejumlah VP berbeda dari kekuatan 2 mengarah pada kinerja yang buruk.
Anda dapat melihat pemetaan VP ke PP sebagai tumpukan irisan ukuran jumlah PP .
Katakanlah Anda sudah mendapatkan 16 PP.
Anda dapat memetakan 16 VP pada mereka: 1 VP dipetakan ke 1 PP.
Anda dapat memetakan 32 VP pada mereka: 2 iris 16 VP, 1 PP akan bertanggung jawab untuk 2 VP.
Dll. Selama eksekusi, masing-masing PP akan melaksanakan pekerjaan Wakil Presiden pertama yang bertanggung jawab, lalu pekerjaan wakil presiden ke-2, dll.
Jika Anda menggunakan 17 VP, setiap PP akan melaksanakan tugas PP 1 mereka, maka 1 PP akan melaksanakan pekerjaan ke-17 DANyang lain tidak akan melakukan apa pun (dijelaskan di bawah).
Ini disebabkan oleh paradigma SIMD (disebut vektor di tahun 70-an) yang digunakan oleh GPU. Ini sering disebut Paralelisme Data: semua PP melakukan hal yang sama pada saat yang sama tetapi pada data yang berbeda. Lihat https://en.wikipedia.org/wiki/SIMD .
Lebih tepatnya, dalam contoh dengan 17 VP, setelah pekerjaan slice 1 dilakukan (oleh semua PP melakukan pekerjaan VP 1 mereka), semua PP akan melakukan pekerjaan yang sama (VP 2), tetapi hanya satu yang memiliki beberapa data untuk dikerjakan .
Tidak ada hubungannya dengan belajar. Ini hanya hal-hal pemrograman.