Menemukan perbedaan dapat dilakukan dengan melihat model. Mari kita lihat pengkodean yang jarang dulu.
Pengkodean yang jarang
Pengodean yang jarang meminimalkan tujuan
L.sc= | | WH- X| |22istilah rekonstruksi+ λ | | H| |1istilah sparsity
mana
W adalah matriks basis, H adalah matriks kode dan
X adalah matriks data yang ingin kami wakili.
λ mengimplementasikan perdagangan antara sparsity dan rekonstruksi. Perhatikan bahwa jika kita diberi
H , estimasi
W mudah melalui kuadrat terkecil.
Pada awalnya, kami tidak memiliki H namun. Namun, banyak algoritma ada yang dapat memecahkan tujuan di atas sehubungan dengan H . Sebenarnya, ini adalah bagaimana kita melakukan inferensi: kita perlu menyelesaikan masalah optimisasi jika kita ingin mengetahui h milik x yang tidak terlihat x.
Penyandi otomatis
Penyandi otomatis adalah keluarga dari jaringan saraf yang tidak diawasi. Ada cukup banyak dari mereka, misalnya auto encoders yang dalam atau mereka yang memiliki trik regularisasi yang berbeda - misalnya denoising, kontraktif, jarang. Bahkan ada yang probabilistik, seperti jaringan stokastik generatif atau auto encoder variasional. Bentuk paling abstrak mereka adalah
tetapi kita akan mengikuti yang lebih sederhana untuk saat ini:
mana adalah fungsi nonlinier seperti sigmoid logistik .L ae = | | W σ ( W T X ) - X | | 2 σ σ ( x ) = 1
D ( d( e ( x ; θr) ; θd) , x )
L.ae= | | Wσ( WTX) - X| |2
σσ( x ) = 11 + exp( - x )
Kesamaan
Perhatikan bahwa terlihat hampir seperti setelah kita menetapkan . Perbedaan keduanya adalah bahwa i) auto encoders tidak mendorong sparsity dalam bentuk umumnya ii) autoencoder menggunakan model untuk menemukan kode, sedangkan pengkodean jarang melakukannya dengan cara optimasi.L a e H=σ( W T X)L.s cL.a eH= σ( WTX)
Untuk data gambar alami, auto encoders yang diregulasi dan pengkodean yang jarang cenderung menghasilkan sangat mirip . Namun, pembuat enkode otomatis jauh lebih efisien dan mudah digeneralisasi ke model yang jauh lebih rumit. Misalnya dekoder bisa sangat nonlinear, misalnya jaringan saraf yang dalam. Selain itu, seseorang tidak terikat pada kerugian kuadrat (di mana estimasi untuk tergantung.)W L s cWWL.s c
Juga, berbagai metode regularisasi menghasilkan representasi dengan karakteristika yang berbeda. Encoder otomatis denoising juga telah terbukti setara dengan bentuk tertentu dari RBM dll.
Tapi kenapa?
Jika Anda ingin menyelesaikan masalah prediksi, Anda tidak akan memerlukan penyandiaksaraan otomatis kecuali Anda hanya memiliki sedikit data berlabel dan banyak data yang tidak berlabel. Maka Anda biasanya akan lebih baik untuk melatih auto encoder yang dalam dan meletakkan SVM linear di atas daripada melatih jaring saraf yang dalam.
Namun, mereka adalah model yang sangat kuat untuk menangkap distribusi karakteristik. Ini tidak jelas, tetapi penelitian yang mengubah ini menjadi fakta statistik yang sulit saat ini sedang dilakukan. Model Gaussian laten yang dalam alias Variasi Auto encoders atau jaringan stokastik generatif adalah cara yang cukup menarik untuk memperoleh auto encoders yang dapat memperkirakan distribusi data yang mendasarinya.