Saya bukan ahli autoencoder atau jaringan saraf dengan cara apa pun, jadi maafkan saya jika ini adalah pertanyaan konyol.
Untuk tujuan pengurangan dimensi atau memvisualisasikan cluster dalam data dimensi tinggi, kita dapat menggunakan autoencoder untuk membuat representasi 2 dimensi (lossy) dengan memeriksa output dari lapisan jaringan dengan 2 node. Sebagai contoh, dengan arsitektur berikut, kami akan memeriksa output dari lapisan ketiga
di mana adalah data input dan adalah jumlah node di lapisan ke- .N l l
Sekarang, pertanyaan saya adalah, mengapa kita menginginkan arsitektur simetris? Bukankah cermin dari fase 'kompresi' yang dalam berarti kita mungkin memiliki fase 'dekompresi' yang sama rumitnya sehingga menghasilkan output 2 simpul yang tidak dipaksa menjadi sangat intuitif? Dengan kata lain, tidakkah fase decoding yang lebih sederhana menghasilkan output dari layer dengan 2 node juga menjadi lebih sederhana?
Pemikiran saya di sini adalah bahwa fase dekompresi yang lebih kompleks, representasi 2D yang lebih sederhana (lebih linier?). Fase dekompresi yang lebih kompleks akan memungkinkan representasi 2D yang lebih kompleks.