Pengatur aktivitas bekerja sebagai fungsi dari keluaran jaringan, dan sebagian besar digunakan untuk mengatur unit tersembunyi, sedangkan pengatur_bobot, seperti namanya, bekerja pada bobot, membuatnya membusuk. Pada dasarnya Anda bisa mengekspresikan kerugian regularisasi sebagai fungsi dari output ( activity_regularizer
) atau weights ( weight_regularizer
).
kernel_regularizer
Penggantian baru weight_regularizer
- meskipun tidak begitu jelas dari dokumentasinya.
Dari definisi kernel_regularizer
:
kernel_regularizer: Fungsi pengatur diterapkan ke kernel
matriks bobot (lihat pengatur ).
Dan activity_regularizer
:
activity_regularizer: Fungsi pengatur diterapkan ke keluaran lapisan ("aktivasi" -nya). (lihat regulator).
Edit Penting : Perhatikan bahwa ada bug di activity_regularizer yang hanya diperbaiki di Keras versi 2.1.4 (setidaknya dengan backend Tensorflow). Memang, di versi yang lebih lama, fungsi pengatur aktivitas diterapkan ke masukan lapisan, alih-alih diterapkan ke keluaran (aktivasi lapisan yang sebenarnya, seperti yang diinginkan). Jadi berhati-hatilah jika Anda menggunakan Keras versi lama (sebelum 2.1.4), regularisasi aktivitas mungkin tidak berfungsi sebagaimana mestinya.
Anda dapat melihat komit di GitHub
Lima bulan lalu François Chollet memberikan perbaikan pada pengatur aktivitas, yang kemudian dimasukkan ke dalam Keras 2.1.4
kernel_regularizer
penggantian ituweight_regularizer
?