Saya baru-baru ini menemukan tf.nn.sparse_softmax_cross_entropy_with_logits dan saya tidak tahu apa perbedaannya dibandingkan dengan tf.nn.softmax_cross_entropy_with_logits .
Apakah satu-satunya perbedaan bahwa vektor pelatihan y
harus dienkode dengan one-hot saat menggunakan sparse_softmax_cross_entropy_with_logits
?
Membaca API, saya tidak dapat menemukan perbedaan lain apa pun dibandingkan softmax_cross_entropy_with_logits
. Tapi mengapa kita membutuhkan fungsi ekstra?
Tidakkah seharusnya softmax_cross_entropy_with_logits
menghasilkan hasil yang sama seperti sparse_softmax_cross_entropy_with_logits
, jika dilengkapi dengan data pelatihan / vektor yang dienkode dengan one-hot?