Saat ini saya sedang mempersiapkan ujian pada jaringan saraf. Dalam beberapa protokol dari ujian sebelumnya saya membaca bahwa fungsi aktivasi neuron (dalam multilayer perceptrons) harus monotonik.
Saya mengerti bahwa fungsi aktivasi harus dapat dibedakan, memiliki turunan yang bukan 0 pada kebanyakan poin, dan bersifat non-linear. Saya tidak mengerti mengapa menjadi monoton itu penting / bermanfaat.
Saya tahu fungsi aktivasi berikut dan itu monoton:
- ReLU
- Sigmoid
- Tanh
- Softmax: Saya tidak yakin apakah definisi monotonitas berlaku untuk fungsi dengan
- Softplus
- (Identitas)
Namun, saya masih tidak dapat melihat alasan mengapa misalnya .
Mengapa fungsi aktivasi harus monoton?
(Pertanyaan sisi terkait: apakah ada alasan mengapa fungsi logaritma / eksponensial tidak digunakan sebagai fungsi aktivasi?)