Mengapa fungsi aktivasi harus monoton?


15

Saat ini saya sedang mempersiapkan ujian pada jaringan saraf. Dalam beberapa protokol dari ujian sebelumnya saya membaca bahwa fungsi aktivasi neuron (dalam multilayer perceptrons) harus monotonik.

Saya mengerti bahwa fungsi aktivasi harus dapat dibedakan, memiliki turunan yang bukan 0 pada kebanyakan poin, dan bersifat non-linear. Saya tidak mengerti mengapa menjadi monoton itu penting / bermanfaat.

Saya tahu fungsi aktivasi berikut dan itu monoton:

  • ReLU
  • Sigmoid
  • Tanh
  • Softmax: Saya tidak yakin apakah definisi monotonitas berlaku untuk fungsi denganf:RnRmn,m>1
  • Softplus
  • (Identitas)

Namun, saya masih tidak dapat melihat alasan mengapa misalnya .φ(x)=x2

Mengapa fungsi aktivasi harus monoton?

(Pertanyaan sisi terkait: apakah ada alasan mengapa fungsi logaritma / eksponensial tidak digunakan sebagai fungsi aktivasi?)



1
@ MartinThoma. Apakah Anda yakin softmax adalah monoton?
Media

1
Terima kasih @Media. Untuk menjawab pertanyaan Anda: Saya tidak yakin apa arti "monoton" bahkan untuk fungsi dalam dengan . Untuk softmax adalah konstan dan karenanya monoton. Tetapi tanpa mendefinisikan untuk elemen dalam dengan saya tidak berpikir monoton masuk akal. f:RnRmm>1m=1<Rnn>1
Martin Thoma

1
@ MartinThoma Terima kasih, sebenarnya itu juga pertanyaan saya. Saya tidak tahu, dan masih tidak tahu, apakah ada ekstensi untuk fungsi monoton dengan beberapa output. Hal-hal matematika, Anda tahu!
Media

Jawaban:


13

Kriteria monotonisitas membantu jaringan saraf untuk menyatu lebih mudah menjadi pengklasifikasi yang lebih akurat. Lihat jawaban stackexchange dan artikel wikipedia ini untuk perincian dan alasan lebih lanjut.

Namun, kriteria monotonisitas tidak wajib untuk fungsi aktivasi - Juga dimungkinkan untuk melatih jaring saraf dengan fungsi aktivasi non-monotonik. Semakin sulit untuk mengoptimalkan jaringan saraf. Lihat jawaban Yoshua Bengio .


-1

Saya akan memberikan alasan yang lebih matematis tentang mengapa fungsi monoton membantu!

Menggunakan http://mathonline.wikidot.com/lebesgue-s-theorem-for-the-differabilityability-of-monotone-fun , dengan asumsi fungsi aktivasi kami menjadi monoton, kita dapat mengatakan bahwa pada garis nyata, fungsi kita akan menjadi terdiferensiasi. Jadi, gradien fungsi aktivasi tidak akan menjadi fungsi yang tidak menentu. Akan lebih mudah menemukan minima yang kita cari. (tidak mahal secara komputasi)

Fungsi eksponensial dan Logaritmik adalah fungsi yang indah tetapi tidak dibatasi (Jadi, kebalikan dari Teorema Lebesgue tidak benar karena Exp dan Log adalah fungsi yang dapat dibedakan yang tidak dibatasi pada garis nyata). Jadi, mereka gagal ketika kita ingin mengklasifikasikan contoh kita pada tahap akhir. Sigmoid dan tanh bekerja sangat baik karena mereka memiliki gradien yang mudah dihitung dan jangkauannya masing-masing (0,1) dan (-1,1).


2
Ada banyak fungsi yang sangat berbeda, tetapi tidak monoton. Jadi mengapa fungsi monoton membantu?
Martin Thoma
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.