Pertanyaan yang diberi tag «backpropagation»

Digunakan untuk pertanyaan tentang Backpropagation, yang biasanya digunakan dalam melatih Jaringan Neural bersama dengan metode pengoptimalan seperti penurunan gradien.

3
Backprop Melalui Lapisan Max-Pooling?
Ini adalah pertanyaan konseptual kecil yang telah mengganggu saya untuk sementara waktu: Bagaimana kita dapat kembali-menyebar melalui lapisan max-pooling dalam jaringan saraf? Saya menemukan max-pooling layers saat membaca tutorial ini untuk library nn Torch 7. Pustaka mengabstraksi perhitungan gradien dan meneruskan untuk setiap lapisan jaringan yang dalam. Saya tidak mengerti …


1
Deep Neural Network - Backpropogation dengan ReLU
Saya mengalami beberapa kesulitan dalam menurunkan propagasi kembali dengan ReLU, dan saya melakukan beberapa pekerjaan, tetapi saya tidak yakin apakah saya berada di jalur yang benar. Fungsi Biaya: 12(y−y^)212(y−y^)2\frac{1}{2}(y-\hat y)^2di manayyyadalah nilai riil, dan y adalah nilai prediksi. Juga asumsikanx> 0 selalu.y^y^\hat yxxx 1 Layer ReLU, di mana bobot pada …


1
propagasi kembali di CNN
Saya memiliki CNN berikut: Saya mulai dengan gambar input berukuran 5x5 Kemudian saya menerapkan konvolusi menggunakan kernel 2x2 dan melangkah = 1, yang menghasilkan fitur peta ukuran 4x4. Lalu saya menerapkan 2x2 max-pooling dengan stride = 2, yang mengurangi fitur map menjadi ukuran 2x2. Kemudian saya menerapkan sigmoid logistik. Kemudian …




3

1
Cara menerapkan gradien softmax di backprop
Saya baru-baru melakukan pekerjaan rumah di mana saya harus belajar model untuk klasifikasi 10 digit MNIST. HW memiliki beberapa kode perancah dan saya seharusnya bekerja dalam konteks kode ini. Pekerjaan rumah saya bekerja / lulus tes tetapi sekarang saya mencoba untuk melakukan semuanya dari awal (kerangka kerja saya sendiri, tidak …

2
Gradien Sintetis - apa manfaat praktisnya?
Saya dapat melihat dua motif untuk menggunakan Gradien Sintetis di RNN: Untuk mempercepat pelatihan, dengan segera mengoreksi setiap lapisan dengan gradien yang diprediksi Untuk dapat mempelajari urutan yang lebih lama Saya melihat masalah dengan keduanya. Harap dicatat, saya sangat suka Gradien Sintetis dan ingin menerapkannya. Tetapi saya perlu memahami di …

3
Menciptakan neural net untuk fungsi xor
Ini adalah fakta yang diketahui bahwa jaringan 1-layer tidak dapat memprediksi fungsi xor, karena tidak dapat dipisahkan secara linear. Saya mencoba membuat jaringan 2-layer, menggunakan fungsi sigmoid logistik dan backprop, untuk memprediksi xor. Jaringan saya memiliki 2 neuron (dan satu bias) pada lapisan input, 2 neuron dan 1 bias di …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.