Pertanyaan yang diberi tag «regularization»

4
Mengapa menambahkan dropout layer meningkatkan kinerja pembelajaran mesin / dalam, mengingat bahwa dropout menekan beberapa neuron dari model?
Jika menghapus beberapa neuron menghasilkan model yang berkinerja lebih baik, mengapa tidak menggunakan jaringan saraf yang lebih sederhana dengan lebih sedikit lapisan dan lebih sedikit neuron di tempat pertama? Mengapa membangun model yang lebih besar dan lebih rumit pada awalnya dan menekan bagian-bagiannya nanti?

2
Mengapa menggunakan regularisasi L1 di atas L2?
Melakukan model regresi linier menggunakan fungsi kerugian, mengapa saya harus menggunakan daripada regularisasi ?L 2L.1L1L_1L.2L2L_2 Apakah lebih baik mencegah overfitting? Apakah itu deterministik (jadi selalu solusi unik)? Apakah lebih baik dalam pemilihan fitur (karena memproduksi model jarang)? Apakah ini membubarkan bobot di antara fitur-fiturnya?

3

3
Memilih metode regularisasi dalam jaringan saraf
Saat melatih jaringan saraf, setidaknya ada 4 cara untuk mengatur jaringan: Regulasi L1 Regulasi L2 Keluar Normalisasi Batch ditambah tentu saja hal-hal lain seperti pembagian berat badan dan mengurangi jumlah koneksi, yang mungkin bukan pengaturan dalam arti yang paling ketat. Tetapi bagaimana orang akan memilih metode regularisasi mana yang akan …

2
Apakah ada studi yang meneliti dropout vs regularisasi lainnya?
Apakah ada makalah yang diterbitkan yang menunjukkan perbedaan metode regularisasi untuk jaringan saraf, lebih disukai pada domain yang berbeda (atau setidaknya set data yang berbeda)? Saya bertanya karena saat ini saya merasa bahwa kebanyakan orang tampaknya hanya menggunakan dropout untuk regularisasi dalam visi komputer. Saya ingin memeriksa apakah akan ada …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.