Dalam minggu 3 catatan kuliah dari kelas Coursera Machine Learning Andrew Ng , istilah ditambahkan ke fungsi biaya untuk melaksanakan regularisasi:
Catatan kuliah mengatakan:
Kami juga dapat mengatur semua parameter theta kami dalam satu penjumlahan:
kemudian diterapkan pada istilah regularisasi jaringan saraf :
Ingatlah bahwa fungsi biaya untuk regresi logistik yang diatur adalah:
Untuk jaringan saraf, ini akan menjadi sedikit lebih rumit:
- Mengapa setengah konstan digunakan di sini? Sehingga dibatalkan dalam turunan ?
- Mengapa pembagian dengan contoh pelatihan? Bagaimana jumlah contoh pelatihan mempengaruhi banyak hal?