Saya melatih jaringan saraf untuk mengklasifikasikan satu set objek menjadi n-kelas. Setiap objek dapat menjadi milik beberapa kelas sekaligus (multi-class, multi-label).
Saya membaca bahwa untuk masalah multi-kelas umumnya direkomendasikan untuk menggunakan softmax dan entropi lintas kategorikal sebagai fungsi kerugian alih-alih mse dan saya kurang lebih mengerti mengapa.
Untuk masalah saya multi-label tidak masuk akal untuk menggunakan softmax tentu saja karena setiap probabilitas kelas harus independen dari yang lain. Jadi layer terakhir saya hanyalah unit sigmoid yang memasukkan input mereka ke dalam rentang probabilitas 0..1 untuk setiap kelas.
Sekarang saya tidak yakin apa fungsi kerugian yang harus saya gunakan untuk ini. Melihat definisi crossentropy kategoris, saya percaya itu tidak akan berlaku dengan baik untuk masalah ini karena hanya akan memperhitungkan output neuron yang seharusnya 1 dan mengabaikan yang lain.
Entropi silang biner sepertinya lebih cocok, tetapi saya hanya melihatnya pernah disebutkan untuk masalah klasifikasi biner dengan neuron keluaran tunggal.
Saya menggunakan python dan keras untuk pelatihan jika itu penting.