Saya memiliki beberapa kesempatan melatih jaringan saraf (back propagation networks) dengan beberapa set data yang agak rumit (posisi backgammon dan OCR). Ketika melakukan ini, tampaknya banyak pekerjaan yang melibatkan mencoba berbagai konfigurasi jaringan, untuk menemukan konfigurasi yang optimal untuk pembelajaran. Seringkali ada kompromi antara jaring kecil yang lebih cepat digunakan / dipelajari, dan jaring yang lebih besar, yang mampu mewakili lebih banyak pengetahuan.
Lalu saya bertanya-tanya apakah mungkin membuat beberapa jaringan yang cepat dan besar. Saya berpikir bahwa pada jaringan di mana setiap neuron yang tidak terhubung sepenuhnya harus lebih cepat untuk menghitung daripada jaring dengan koneksi penuh pada semua lapisan. Bisa jadi pelatihan yang mendeteksi bahwa input tertentu tidak diperlukan oleh neuron tertentu, dan karena itu menghapus koneksi tersebut. Dengan cara yang sama pelatihan juga bisa melibatkan penambahan neuron baru jika beberapa neuron tampaknya "kelebihan beban".
Apakah ini sesuatu yang telah dicoba dengan sukses? Apakah ada kelas jaringan dengan perilaku semacam ini?