Yah, itu tergantung pada arsitektur jaringan dan lapisan tertentu. Secara umum NN tidak dapat diartikan, ini adalah kelemahan utama mereka dalam analisis data komersial (di mana tujuan Anda adalah untuk mengungkap wawasan yang dapat ditindaklanjuti dari model Anda).
Tapi saya suka jaringan convolutional, karena mereka berbeda! Meskipun lapisan atasnya mempelajari konsep yang sangat abstrak, dapat digunakan untuk transfer pembelajaran dan klasifikasi, yang tidak dapat dipahami dengan mudah, lapisan bawahnya mempelajari filter Gabor langsung dari data mentah (dan dengan demikian dapat ditafsirkan sebagai filter semacam itu). Lihatlah contoh dari ceramah Le Cun:
Selain itu, M. Zeiler ( pdf ) dan banyak peneliti lain menemukan metode yang sangat kreatif untuk "memahami" convnet dan memastikannya mempelajari sesuatu yang berguna yang dijuluki jaringan Dekonvolusional , di mana mereka 'melacak' beberapa convnet dengan membuat meneruskan masukan gambar dan mengingat yang mana neuron memiliki aktivasi terbesar untuk foto mana. Ini memberikan introspeksi menakjubkan seperti ini (beberapa layer ditunjukkan di bawah):
Gambar abu-abu di sisi kiri adalah aktivasi neuron (semakin banyak intensitas - aktivasi yang lebih besar) oleh gambar berwarna di sisi kanan. Kita melihat, bahwa aktivasi ini adalah representasi kerangka dari foto asli, yaitu, aktivasi tidak acak. Dengan demikian, kami memiliki harapan yang kuat, bahwa convnet kami memang mempelajari sesuatu yang bermanfaat dan akan memiliki generalisasi yang layak di foto yang tidak terlihat.