Dalam bidang pemrosesan sinyal adaptif / pembelajaran mesin, deep learning (DL) adalah metodologi tertentu di mana kita dapat melatih representasi mesin yang kompleks.
Secara umum, mereka akan memiliki formulasi yang dapat memetakan input Anda , sampai ke tujuan target, , melalui serangkaian operasi yang disusun secara hierarkis (ini adalah tempat 'deep' berasal) operasi . Operasi-operasi tersebut biasanya operasi / proyeksi linear ( ), diikuti oleh non-linearitas ( ), seperti:y W i f ixyWifi
y=fN(...f2(f1(xTW1)W2)...WN)
Sekarang dalam DL, ada banyak arsitektur yang berbeda : Salah satu arsitektur tersebut dikenal sebagai jaring saraf convolutional (CNN). Arsitektur lain dikenal sebagai perceptron multi-layer , (MLP), dll. Arsitektur yang berbeda memungkinkan mereka untuk memecahkan berbagai jenis masalah.
MLP mungkin adalah salah satu jenis arsitektur DL paling tradisional yang mungkin ditemukan, dan saat itulah setiap elemen dari lapisan sebelumnya, terhubung ke setiap elemen dari lapisan berikutnya. Ini terlihat seperti ini:
Dalam MLP, matricies menyandikan transformasi dari satu layer ke layer lainnya. (Melalui perkalian matriks). Misalnya, jika Anda memiliki 10 neuron dalam satu lapisan yang terhubung ke 20 neuron berikutnya, maka Anda akan memiliki matriks , yang akan memetakan input ke output , melalui: . Setiap kolom di , mengkodekan semua tepi dari semua elemen lapisan, ke salah satu elemen dari lapisan berikutnya.W ∈ R 10 x 20 v ∈ R 10 x 1 u ∈ R 1 x 20 u = v T W WWiW∈R10x20v∈R10x1u∈R1x20u=vTWW
MLP tidak disukai lagi, sebagian karena mereka sulit untuk dilatih. Walaupun ada banyak alasan untuk kesulitan itu, salah satunya juga karena koneksi mereka yang padat tidak memungkinkan mereka untuk dengan mudah mengukur berbagai masalah penglihatan komputer. Dengan kata lain, mereka tidak memiliki terjemahan-ekivalensi yang dipasangkan. Ini berarti bahwa jika ada sinyal di satu bagian gambar yang mereka butuhkan untuk peka, mereka perlu belajar kembali bagaimana menjadi peka jika sinyal itu bergerak. Ini menyia-nyiakan kapasitas jaring, sehingga pelatihan menjadi sulit.
Di sinilah CNN masuk! Berikut ini tampilannya:
CNN memecahkan masalah penerjemahan sinyal, karena mereka akan menggabungkan setiap sinyal input dengan detektor, (kernel), dan dengan demikian peka terhadap fitur yang sama, tetapi kali ini di mana-mana. Dalam hal ini, persamaan kami masih terlihat sama, tetapi bobot matricies sebenarnya toeplitz konvolusional . Matematikanya sama saja. Wi
Adalah umum untuk melihat "CNN" merujuk ke jaring di mana kita memiliki lapisan konvolusional di seluruh jaring, dan MLP di bagian paling akhir, sehingga merupakan satu peringatan yang harus diperhatikan.