Pertanyaan yang diberi tag «deep-learning»

Untuk pertanyaan terkait pembelajaran mendalam, yang mengacu pada subset metode pembelajaran mesin berdasarkan jaringan saraf tiruan (JST) dengan beberapa lapisan tersembunyi. Jadi kata sifat dalam mengacu pada jumlah lapisan JST. Ekspresi deep learning tampaknya diperkenalkan (walaupun tidak dalam konteks pembelajaran mesin atau JST) pada tahun 1986 oleh Rina Dechter dalam makalah "Belajar sambil mencari dalam kendala-kepuasan-masalah".


2
Pengkodean input / output untuk jaringan saraf untuk mempelajari permainan berbasis grid
Saya menulis permainan mainan sederhana dengan tujuan melatih jaringan saraf yang mendalam di atasnya. Aturan permainan kira-kira adalah sebagai berikut: Gim ini memiliki papan yang terdiri dari sel-sel heksagonal. Kedua pemain memiliki koleksi potongan yang sama yang dapat mereka pilih untuk diposisikan secara bebas di papan tulis. Menempatkan berbagai jenis …



1
Bagaimana skala "komputer saraf terdiferensial" Deepmind yang baru?
Deepmind baru saja menerbitkan sebuah makalah tentang "komputer saraf yang dapat dibedakan" , yang pada dasarnya menggabungkan jaringan saraf dengan memori . Idenya adalah untuk mengajarkan jaringan saraf untuk membuat dan mengingat ingatan eksplisit yang berguna untuk tugas tertentu. Ini melengkapi kemampuan jaringan saraf dengan baik, karena NN hanya menyimpan …


2
Adakah argumen ilmiah / matematis yang mencegah pembelajaran mendalam dari menghasilkan AI yang kuat?
Saya membaca The Book of Why karya Judea Pearl , di mana ia menyebutkan bahwa pembelajaran yang mendalam hanyalah teknologi pemasangan kurva yang dimuliakan, dan tidak akan mampu menghasilkan kecerdasan seperti manusia. Dari bukunya ada diagram ini yang menggambarkan tiga tingkat kemampuan kognitif: Idenya adalah bahwa "kecerdasan" yang dihasilkan oleh …


2
Haruskah jaringan residu yang dalam dipandang sebagai ansambel jaringan?
Pertanyaannya adalah tentang arsitektur Deep Residual Networks ( ResNets ). Model yang memenangkan tempat pertama di "Skala Besar Pengenalan Visual 2015" (ILSVRC2015) di semua lima trek utama: ImageNet Klasifikasi: “jaring ultra-dalam” (kutipan Yann) 152 lapisan Deteksi ImageNet: 16% lebih baik dari 2 ImageNet Lokalisasi: 27% lebih baik dari 2 Deteksi …



2
Lapisan mana yang menghabiskan lebih banyak waktu dalam pelatihan CNN? Lapisan konvolusi vs lapisan FC
Dalam Convolutional Neural Network, lapisan mana yang menghabiskan waktu maksimum dalam pelatihan? Lapisan konvolusi atau lapisan Sepenuhnya Terhubung? Kita dapat menggunakan arsitektur AlexNet untuk memahami hal ini. Saya ingin melihat waktu perpecahan proses pelatihan. Saya ingin perbandingan waktu yang relatif sehingga kami dapat mengambil konfigurasi GPU yang konstan.

5
Mengapa jaringan saraf yang dalam dan pembelajaran yang mendalam tidak cukup untuk mencapai kecerdasan umum?
Segala sesuatu yang terkait dengan Deep Learning (DL) dan jaringan deep (er) tampaknya "berhasil", setidaknya berkembang sangat cepat, dan menumbuhkan keyakinan bahwa AGI berada dalam jangkauan. Ini adalah imajinasi populer. DL adalah alat luar biasa untuk mengatasi begitu banyak masalah, termasuk pembuatan AGI. Tapi itu tidak cukup. Alat adalah bahan …

1
Dapatkah lapisan jaringan saraf dalam dilihat sebagai jaringan Hopfield?
Jaringan Hopfield dapat menyimpan vektor dan mengambilnya mulai dari versi berisiknya. Mereka melakukan pengaturan bobot untuk meminimalkan fungsi energi ketika semua neuron diatur sama dengan nilai vektor, dan mengambil vektor menggunakan versi berisik itu sebagai input dan memungkinkan jaring untuk menetap pada minimum energi. Mengesampingkan masalah seperti kenyataan bahwa tidak …

1
Bagaimana gradien kebijakan dapat diterapkan dalam kasus beberapa tindakan berkelanjutan?
Optimalisasi Kebijakan Wilayah Tepercaya (TRPO) dan Optimasi Kebijakan Proksimal (PPO) adalah dua algoritma gradien kebijakan canggih. Saat menggunakan tindakan kontinu tunggal, biasanya, Anda akan menggunakan beberapa distribusi probabilitas (misalnya, Gaussian) untuk fungsi kerugian. Versi kasarnya adalah: L ( θ ) = log( P( a1) ) A ,L.(θ)=catatan⁡(P(Sebuah1))SEBUAH,L(\theta) = \log(P(a_1)) A, …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.