3
Lapisan softmax dalam jaringan saraf
Saya mencoba menambahkan lapisan softmax ke jaringan saraf yang dilatih dengan backpropagation, jadi saya mencoba menghitung gradiennya. Output softmax adalah mana adalah nomor neuron output.hj= ezj∑ ezsayahj=ezj∑ezsayah_j = \frac{e^{z_j}}{\sum{e^{z_i}}}jjj Jika saya mendapatkannya maka saya mendapatkannya ∂hj∂zj= hj( 1 - jamj)∂hj∂zj=hj(1-hj)\frac{\partial{h_j}}{\partial{z_j}}=h_j(1-h_j) Mirip dengan regresi logistik. Namun ini salah karena pemeriksaan gradien …