perbedaan antara jaringan saraf dan pembelajaran yang mendalam


10

Dalam hal perbedaan antara jaringan saraf dan pembelajaran yang mendalam, kita dapat membuat daftar beberapa item, seperti lebih banyak lapisan yang disertakan, kumpulan data yang besar, perangkat keras komputer yang kuat untuk membuat model pelatihan yang rumit menjadi mungkin.

Selain itu, apakah ada penjelasan lebih rinci mengenai perbedaan antara NN dan DL?


3
Sejauh yang saya tahu, hanya memiliki beberapa lapisan tersembunyi sudah cukup untuk membuat jaringan "dalam;" lebih banyak data dan komputer yang lebih besar lebih merupakan gejala dari meningkatnya ketersediaan keduanya untuk tugas pembelajaran mesin.
Sycorax berkata Reinstate Monica

Mungkin pertanyaan ini harus dimigrasikan ke pertukaran tumpukan kecerdasan buatan baru ?
WilliamKF

2
@ WilliamKF Ini benar-benar topik di sini.
Sycorax berkata Reinstate Monica

Jawaban:



4

Frank Dernoncourt memiliki jawaban tujuan umum yang lebih baik, tetapi saya pikir perlu disebutkan bahwa ketika orang menggunakan istilah yang luas "Belajar Dalam" mereka sering menyiratkan penggunaan teknik terbaru, seperti konvolusi, yang tidak akan Anda temukan di yang lebih tua / tradisional (terhubung penuh) jaringan saraf. Untuk masalah pengenalan gambar, konvolusi dapat mengaktifkan jaringan saraf yang lebih dalam karena neuron / filter yang berbelit-belit mengurangi risiko overfitting dengan berbagi bobot.


1

Jaringan saraf dengan banyak lapisan adalah arsitektur yang mendalam.

Namun, algoritma pembelajaran backpropagation yang digunakan dalam jaringan saraf tidak bekerja dengan baik ketika jaringannya sangat dalam. Arsitektur pembelajaran dalam arsitektur dalam ("pembelajaran dalam") harus mengatasi ini. Sebagai contoh, mesin Boltzmann menggunakan algoritma pembelajaran kontras sebagai gantinya.

Memunculkan arsitektur yang dalam itu mudah. Menghadirkan algoritma pembelajaran yang bekerja dengan baik untuk arsitektur yang dalam terbukti sulit.


Tetapi tampaknya algoritma backpropagation masih digunakan untuk melatih internet bersih dan berulang, meskipun mereka memanfaatkan beberapa teknik optimasi numerik yang baru dikembangkan, seperti normalisasi batch.
user3269

@ user3269 normalisasi dan dropout batch adalah contoh modifikasi pada algoritma pembelajaran untuk mencoba membuatnya bekerja dengan baik dalam arsitektur yang mendalam.
Neil G

0

Pembelajaran yang mendalam membutuhkan jaringan saraf yang memiliki banyak lapisan - setiap lapisan melakukan transformasi matematis dan memasukkannya ke dalam lapisan berikutnya. Output dari lapisan terakhir adalah keputusan jaringan untuk input yang diberikan. Lapisan antara lapisan input dan output disebut lapisan tersembunyi.

Jaringan saraf pembelajaran yang mendalam adalah kumpulan besar perceptron yang saling berhubungan berlapis-lapis. Bobot dan bias masing-masing perceptron dalam jaringan mempengaruhi sifat dari keputusan keluaran seluruh jaringan. Dalam jaringan saraf yang disetel sempurna, semua nilai bobot dan bias semua perceptron sedemikian rupa sehingga keputusan keluaran selalu benar (seperti yang diharapkan) untuk semua input yang mungkin. Bagaimana bobot dan bias dikonfigurasi? Ini terjadi berulang selama pelatihan jaringan - disebut pembelajaran dalam. (Sharad Gandhi)

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.