Saya telah menemukan bahwa Imagenet dan CNN besar lainnya menggunakan lapisan normalisasi respons lokal. Namun, saya tidak dapat menemukan banyak informasi tentang mereka. Seberapa penting mereka dan kapan mereka harus digunakan?
Dari http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers :
"Lapisan normalisasi respons lokal melakukan semacam" penghambatan lateral "dengan menormalkan lebih dari daerah input lokal. Dalam mode ACROSS_CHANNELS, daerah lokal memperluas melintasi saluran terdekat, tetapi tidak memiliki batas spasial (yaitu, mereka memiliki bentuk local_size x 1 x 1) Dalam mode WITHIN_CHANNEL, wilayah lokal diperluas secara spasial, tetapi berada dalam saluran terpisah (yaitu, mereka memiliki bentuk 1 x local_size x local_size). Setiap nilai input dibagi dengan (1+ (α / n) ixix2i) β, di mana n adalah ukuran masing-masing wilayah lokal, dan jumlah diambil atas wilayah yang berpusat pada nilai itu (nol padding ditambahkan jika perlu). "
Edit:
Tampaknya jenis lapisan ini memiliki dampak minimal dan tidak digunakan lagi. Pada dasarnya, peran mereka telah dikalahkan oleh teknik regularisasi lainnya (seperti dropout dan normalisasi batch), inisialisasi yang lebih baik dan metode pelatihan. Lihat jawaban saya di bawah ini untuk lebih jelasnya.