Saya baru-baru ini menemukan tf.nn.sparse_softmax_cross_entropy_with_logits dan saya tidak tahu apa perbedaannya dibandingkan dengan tf.nn.softmax_cross_entropy_with_logits .
Apakah satu-satunya perbedaan bahwa vektor pelatihan yharus dienkode dengan one-hot saat menggunakan sparse_softmax_cross_entropy_with_logits?
Membaca API, saya tidak dapat menemukan perbedaan lain apa pun dibandingkan softmax_cross_entropy_with_logits. Tapi mengapa kita membutuhkan fungsi ekstra?
Tidakkah seharusnya softmax_cross_entropy_with_logitsmenghasilkan hasil yang sama seperti sparse_softmax_cross_entropy_with_logits, jika dilengkapi dengan data pelatihan / vektor yang dienkode dengan one-hot?