Pertanyaan yang diberi tag «batch-normalization»

1
Makalah: Apa perbedaan antara Normalisasi Lapisan, Normalisasi Batch Berulang (2016), dan Batch Normalisasi RNN (2015)?
Jadi, baru-baru ini ada kertas Normalisasi Layer . Ada juga implementasi di Keras. Tapi saya ingat ada makalah yang berjudul Normalisasi Batch Berulang (Cooijmans, 2016) dan Batch Normalisasi Jaringan Saraf Berulang (Laurent, 2015). Apa perbedaan antara ketiganya? Ada bagian Pekerjaan Terkait ini yang saya tidak mengerti: Normalisasi batch sebelumnya telah …

2
Apakah Normalisasi Batch masuk akal untuk fungsi aktivasi ReLU?
Normalisasi Batch dijelaskan dalam makalah ini sebagai normalisasi input ke fungsi aktivasi dengan skala dan variabel bergeserγγ\gamma dan ββ\beta. Makalah ini terutama menjelaskan menggunakan fungsi aktivasi sigmoid, yang masuk akal. Namun, bagi saya tampaknya memberi makan input dari distribusi normal yang dihasilkan oleh normalisasi batch menjadi fungsi aktivasi ReLU darim …

2
Apakah normalisasi batch berarti bahwa sigmoids bekerja lebih baik daripada ReLU?
Normalisasi batch dan ReLU adalah solusi untuk masalah gradien yang hilang. Jika kita menggunakan normalisasi batch, haruskah kita menggunakan sigmoids? Atau adakah fitur ReLU yang menjadikannya berharga bahkan ketika menggunakan batchnorm? Saya kira normalisasi yang dilakukan dalam batchnorm akan mengirimkan nol aktivasi negatif. Apakah itu berarti bahwa batchnorm menyelesaikan masalah …

1
memahami normalisasi batch
Dalam makalah Normalisasi Batch: Mempercepat Pelatihan Jaringan Dalam dengan Mengurangi Pergeseran Kovarian Internal (di sini ) Sebelum menjelaskan proses normalisasi bets, makalah ini mencoba menjelaskan masalah yang terkait dengan (saya tidak mendapatkan apa masalah yang sebenarnya dibahas di sini) . kutipan dari bagian 2, para 2: Kami dapat mempertimbangkan pemutihan …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.