1
Entri Silang atau Kemungkinan Log di lapisan Output
Saya membaca halaman ini: http://neuralnetworksanddeeplearning.com/chap3.html dan dikatakan bahwa lapisan keluaran sigmoid dengan cross-entropy cukup mirip dengan lapisan keluaran softmax dengan kemungkinan log. apa yang terjadi jika saya menggunakan sigmoid dengan log-likelihood atau softmax dengan cross entropy pada layer output? itu baik? karena saya melihat hanya ada sedikit perbedaan dalam persamaan …