Misalkan Anda memiliki lapisan input dengan n neuron dan lapisan tersembunyi pertama neuron, dengan biasanya . Kemudian Anda menghitung aktingnya dari -th neuron di lapisan tersembunyi oleh
dimana adalah fungsi aktivasi seperti atau .
Untuk melatih jaringan, Anda menghitung rekonstruksi input, dilambangkan , dan meminimalkan kesalahan di antara dan . Sekarang, ituelemen ke-dalam biasanya dihitung sebagai:
Saya bertanya-tanya mengapa direkonstruksi biasanya dihitung dengan fungsi aktivasi yang sama alih-alih menggunakan fungsi terbalik, dan mengapa terpisah dan berguna bukannya menggunakan bobot dan bias terikat? Tampaknya jauh lebih intuitif bagi saya untuk menghitung yang direkonstruksi dengan fungsi aktivasi terbalikmisalnya , sebagai berikut:
Perhatikan, bahwa di sini bobot yang diikat digunakan, yaitu, , dan bias lapisan tersembunyi digunakan, alih-alih memperkenalkan set bias tambahan untuk lapisan input.
Dan pertanyaan yang sangat terkait: Untuk memvisualisasikan fitur, alih-alih menghitung rekonstruksi, orang biasanya akan membuat matriks identitas dengan dimensi lapisan tersembunyi. Kemudian, seseorang akan menggunakan setiap kolom matriks sebagai input ke fungsi reaktivasi, yang menginduksi output dalam neuron input. Untuk fungsi reaktivasi, apakah lebih baik menggunakan fungsi aktivasi yang sama (resp) atau fungsi terbalik (resp )?