Satu lagi gagasan tentang pengurangan dimensi dalam konteks filter 1x1:
Ambil contoh, fc7 4096x8x8 layer dari FCN. Apa yang terjadi jika lapisan berikutnya (sebut saja fc8) adalah 2048x8x8 dengan ukuran filter 1? fc7 sangat jauh di dalam jaringan, masing-masing fitur 4096 kaya secara semantik, tetapi masing-masing neuron (misalnya gambar input 250x250x3) memiliki bidang reseptif yang besar. Dengan kata lain, jika neuron sangat aktif, kita tahu bahwa di suatu tempat di bidang semantiknya ada fitur yang sesuai.
Ambil contoh neuron paling kiri di fc8 dengan filter 1x1. Ini terhubung ke semua 4.096 neuron / fitur hanya di bidang reseptif yang sama (sudut kiri atas gambar), yang masing-masing diaktifkan oleh fitur tunggal. Beberapa (mari kita sama 500) dari mereka sangat aktif. Jika neuron yang dihasilkan juga sangat aktif, itu berarti ia mungkin belajar mengidentifikasi 1 atau lebih fitur dalam bidang reseptif ini. Setelah Anda melakukan ini 2048 kali untuk neuron paling kiri di fc8, beberapa dari mereka (misalnya 250) akan sangat aktif, yang berarti mereka 'mengumpulkan' fitur dari bidang reseptif yang sama melalui fc7, dan banyak kemungkinan besar lebih dari satu.
Jika Anda terus mengurangi dimensionalitas, jumlah neuron yang berkurang akan mempelajari fitur yang semakin meningkat dari bidang reseptif yang sama. Dan karena parameter spasial 8x8 tetap sama, kami tidak mengubah 'pandangan' masing-masing neuron, sehingga tidak mengurangi kekasaran spasial.
Anda mungkin ingin melihat 'Jaringan Sepenuhnya Konvolusional' oleh Long, Shelhamer dan Darrel.