Pertanyaan yang diberi tag «deep-learning»

Area pembelajaran mesin berkaitan dengan pembelajaran representasi hirarkis data, terutama dilakukan dengan jaringan saraf yang mendalam.



1
Mengapa kita tidak menggunakan laju pembelajaran non-konstan untuk gradien yang layak untuk hal-hal lain selain jaringan saraf?
Literatur pembelajaran yang mendalam penuh dengan trik pintar dengan menggunakan tingkat pembelajaran yang tidak konstan dalam gradient descent. Hal-hal seperti peluruhan eksponensial, RMSprop, Adagrad dll mudah untuk diimplementasikan dan tersedia di setiap paket pembelajaran yang mendalam, namun mereka tampaknya tidak ada di luar jaringan saraf. Apakah ada alasan untuk ini? …

3
Deep neural networks - Hanya untuk klasifikasi gambar?
Semua contoh yang saya temukan menggunakan keyakinan mendalam atau jaringan saraf convolutional menggunakannya untuk klasifikasi gambar, deteksi bakteri atau pengenalan suara. Apakah jaringan syaraf yang dalam juga berguna untuk tugas-tugas regresi klasik, di mana fitur-fiturnya tidak terstruktur (misalnya, tidak diatur dalam urutan atau kisi)? Jika ya, bisakah Anda memberi contoh?

1
Apakah ada perbedaan antara pelatihan autoencoder bertumpuk dan jaringan saraf 2-lapisan?
Katakanlah saya sedang menulis sebuah algoritma untuk membangun 2-layer autoencoder dan 2-layer neural network. Apakah keduanya sama atau berbeda? Apa yang saya pahami adalah bahwa ketika saya membuat autoencoder bertumpuk, saya akan membangun lapis demi lapis. Untuk jaringan saraf, saya akan menginisialisasi semua parameter di netowork, dan kemudian untuk setiap …

4
Berapa banyak data yang Anda butuhkan untuk jaringan saraf convolutional?
Jika saya memiliki jaringan saraf convolutional (CNN), yang memiliki sekitar 1.000.000 parameter, berapa banyak data pelatihan yang diperlukan (anggap saya sedang melakukan penurunan gradien stokastik)? Apakah ada aturan praktis? Catatan tambahan: Ketika saya melakukan penurunan gradien stokastik (mis., 64 tambalan untuk 1 iterasi), setelah ~ 10.000 iterasi, akurasi classifier dapat …

2
Bagaimana Dropout Spatial dalam 2D ​​diterapkan?
Ini dengan merujuk pada kertas Pelokalan Objek Efisien Menggunakan Jaringan Konvolusional , dan dari apa yang saya pahami dropout diimplementasikan dalam 2D. Setelah membaca kode dari Keras tentang bagaimana Dropout 2D Spasial diimplementasikan, pada dasarnya bentuk biner acak [batch_size, 1, 1, num_channels] diimplementasikan. Namun, apa sebenarnya yang dilakukan Dropout 2D …

3
Mengapa jaringan saraf memerlukan pemilihan fitur / rekayasa?
Khususnya dalam konteks kompetisi kaggle saya perhatikan bahwa kinerja model adalah semua tentang pemilihan fitur / teknik. Sementara saya dapat sepenuhnya memahami mengapa hal ini terjadi ketika berhadapan dengan algoritma ML yang lebih konvensional / jadul, saya tidak melihat mengapa ini akan menjadi kasus ketika menggunakan jaringan saraf yang dalam. …


2
Apa itu Bayesian Deep Learning?
Apa itu Bayesian Deep Learning dan bagaimana hubungannya dengan statistik Bayesian tradisional dan Deep Learning tradisional? Apa konsep dan matematika utama yang terlibat? Bisakah saya mengatakan itu hanya statistik bayesian non parametrik? Apa karya seminalnya serta perkembangan dan aplikasi utamanya saat ini? PS: Bayesian Deep Learning mendapat banyak perhatian, lihat …

1
Mengapa penguatan yang dalam belajar tidak stabil?
Dalam makalah DeepMind tahun 2015 tentang pembelajaran penguatan dalam, ia menyatakan bahwa "Upaya sebelumnya untuk menggabungkan RL dengan jaringan saraf sebagian besar gagal karena pembelajaran yang tidak stabil". Makalah ini kemudian mencantumkan beberapa penyebabnya, berdasarkan korelasi antar pengamatan. Tolong bisakah seseorang menjelaskan apa artinya ini? Apakah itu bentuk overfitting, di …

2
Mengapa jaringan saraf mudah tertipu?
Saya telah membaca beberapa makalah tentang membuat gambar secara manual untuk "mengelabui" jaringan saraf (lihat di bawah). Apakah ini karena jaringan hanya memodelkan probabilitas bersyarat ? Jika jaringan dapat memodelkan probabilitas gabungan , akankah kasus seperti itu masih terjadi?p ( y| x)hal(y|x)p(y|x)p ( y, x )hal(y,x)p(y,x) Dugaan saya adalah gambar …


1
Apa saja teknik augmentasi data yang berguna untuk jaringan saraf convolutional yang mendalam?
Latar belakang: Saya baru-baru ini memahami pada tingkat yang lebih dalam pentingnya augmentasi data ketika melatih jaringan saraf convolutional setelah melihat pembicaraan luar biasa ini oleh Geoffrey Hinton . Dia menjelaskan bahwa jaringan saraf convolutional generasi saat ini tidak dapat menggeneralisasi kerangka referensi dari objek yang diuji, membuatnya sulit bagi …

1
Mencegah overfitting LSTM pada dataset kecil
Saya memodelkan 15.000 tweet untuk prediksi sentimen menggunakan LSTM lapisan tunggal dengan 128 unit tersembunyi menggunakan representasi seperti word2vec dengan 80 dimensi. Saya mendapatkan akurasi keturunan (38% dengan acak = 20%) setelah 1 zaman. Lebih banyak pelatihan membuat akurasi validasi mulai menurun ketika akurasi pelatihan mulai naik - tanda yang …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.