Pertanyaan yang diberi tag «neural-network»

Jaringan saraf tiruan (JST), terdiri dari 'neuron' - konstruksi pemrograman yang meniru sifat-sifat neuron biologis. Satu set koneksi berbobot antara neuron memungkinkan informasi untuk menyebar melalui jaringan untuk memecahkan masalah kecerdasan buatan tanpa perancang jaringan memiliki model sistem yang nyata.

10
Apa itu lapisan dekonvolusional?
Saya baru-baru ini membaca Jaringan Konvolusional Sepenuhnya untuk Segmentasi Semantik oleh Jonathan Long, Evan Shelhamer, Trevor Darrell. Saya tidak mengerti apa yang dilakukan "lapisan dekonvolusional" / cara kerjanya. Bagian yang relevan adalah 3.3. Upsampling adalah belokan terbalik ke belakang Cara lain untuk menghubungkan output kasar ke piksel padat adalah interpolasi. …


5
Apa masalah "ReLU yang sekarat" dalam jaringan saraf?
Mengacu pada catatan kursus Stanford tentang Jaringan Syaraf Konvolusional untuk Pengenalan Visual , sebuah paragraf mengatakan: "Sayangnya, unit ReLU bisa rapuh selama pelatihan dan bisa" mati ". Misalnya, gradien besar yang mengalir melalui neuron ReLU dapat menyebabkan bobot diperbarui sedemikian rupa sehingga neuron tidak akan pernah diaktifkan pada titik data …

6
Kapan menggunakan GRU di atas LSTM?
Perbedaan utama antara GRU dan LSTM adalah bahwa GRU memiliki dua gerbang ( reset dan memperbarui gerbang) sedangkan LSTM memiliki tiga gerbang (yaitu input , output dan gerbang lupa ). Mengapa kita menggunakan GRU ketika kita jelas memiliki lebih banyak kontrol pada jaringan melalui model LSTM (karena kita memiliki tiga …

8
Memilih tingkat pembelajaran
Saat ini saya sedang mengerjakan implementasi Stochastic Gradient Descent,, SGDuntuk jaring saraf menggunakan back-propagation, dan sementara saya mengerti tujuannya, saya punya beberapa pertanyaan tentang bagaimana memilih nilai untuk tingkat pembelajaran. Apakah tingkat pembelajaran terkait dengan bentuk gradien kesalahan, karena menentukan tingkat keturunan? Jika demikian, bagaimana Anda menggunakan informasi ini untuk …



3
Backprop Melalui Lapisan Max-Pooling?
Ini adalah pertanyaan konseptual kecil yang telah mengganggu saya untuk sementara waktu: Bagaimana kita dapat kembali-menyebar melalui lapisan max-pooling dalam jaringan saraf? Saya menemukan max-pooling layers saat membaca tutorial ini untuk library nn Torch 7. Pustaka mengabstraksi perhitungan gradien dan meneruskan untuk setiap lapisan jaringan yang dalam. Saya tidak mengerti …

4
Bagaimana konvolusi 1x1 sama dengan lapisan yang terhubung penuh?
Saya baru-baru ini membaca komentar Yan LeCuns pada konvolusi 1x1 : Dalam Jaring Konvolusional, tidak ada yang namanya "lapisan yang sepenuhnya terhubung". Hanya ada lapisan konvolusi dengan kernel konvolusi 1x1 dan tabel koneksi penuh. Ini fakta yang terlalu jarang dipahami sehingga ConvNets tidak perlu memiliki input ukuran tetap. Anda dapat …

3
RNN vs CNN di tingkat tinggi
Saya sudah memikirkan Recurrent Neural Networks (RNN) dan varietas mereka dan Convolutional Neural Networks (CNN) dan varietas mereka. Apakah kedua poin ini adil untuk dikatakan: Gunakan CNN untuk memecah komponen (seperti gambar) menjadi subkomponen (seperti objek dalam gambar, seperti garis besar objek dalam gambar, dll.) Gunakan RNN untuk membuat kombinasi …

2
Kapan menggunakan (He atau Glorot) inisialisasi normal di atas seragam init? Dan apa efeknya dengan Normalisasi Batch?
Saya tahu bahwa Residual Network (ResNet) membuatnya inisialisasi normal menjadi populer. Dalam ResNet, inisialisasi normal He digunakan , sedangkan lapisan pertama menggunakan inisialisasi seragam He. Saya telah melihat melalui kertas ResNet dan kertas "Delving Deep into Rectifiers" (Dia menginisialisasi kertas), tetapi saya belum menemukan penyebutan pada init normal vs seragam …

3
Cara melawan kekurangan dalam jaring saraf yang dalam
Ketika saya mulai dengan jaringan saraf tiruan (NN) saya pikir saya harus berjuang overfitting sebagai masalah utama. Tetapi dalam prakteknya saya bahkan tidak bisa mendapatkan NN saya untuk melewati penghalang tingkat kesalahan 20%. Saya bahkan tidak bisa mengalahkan skor saya di hutan acak! Saya mencari saran yang sangat umum atau …

4
Jaringan saraf: fungsi biaya manakah yang digunakan?
Saya menggunakan TensorFlow untuk eksperimen terutama dengan jaringan saraf. Meskipun saya telah melakukan beberapa percobaan (XOR-Problem, MNIST, beberapa hal Regresi, ...) sekarang, saya berjuang dengan memilih fungsi biaya "yang benar" untuk masalah tertentu karena secara keseluruhan saya dapat dianggap sebagai pemula. Sebelum datang ke TensorFlow saya mengkodekan beberapa MLP yang …


1
Apa perbedaan antara LeakyReLU dan PReLU?
f( x ) = maks ( x , α x ) dengan α ∈ ( 0 , 1 )f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, bagaimanapun, memiliki kedua fungsi dalam dokumen . LeLU ReLU Sumber LeakyReLU : return K.relu(inputs, alpha=self.alpha) Karenanya …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.