Pertanyaan yang diberi tag «backpropagation»

Backpropagation, singkatan untuk "propagasi kesalahan ke belakang", adalah metode umum untuk melatih jaringan saraf tiruan yang digunakan bersama dengan metode pengoptimalan seperti gradient descent.

6
Apakah mungkin untuk melatih jaringan saraf tanpa backpropagation?
Banyak buku dan tutorial jaringan saraf menghabiskan banyak waktu pada algoritma backpropagation, yang pada dasarnya adalah alat untuk menghitung gradien. Mari kita asumsikan kita sedang membangun model dengan ~ 10K parameter / bobot. Apakah mungkin untuk menjalankan pengoptimalan menggunakan beberapa algoritma pengoptimalan bebas gradien? Saya pikir menghitung gradien numerik akan …


1
Apa bedanya softmax_cross_entropy_with_logits dari softmax_cross_entropy_with_logits_v2?
Secara khusus, saya kira saya bertanya-tanya tentang pernyataan ini: Versi utama masa depan TensorFlow akan memungkinkan gradien mengalir ke input label pada backprop secara default. Yang ditampilkan saat saya gunakan tf.nn.softmax_cross_entropy_with_logits. Dalam pesan yang sama ia mendesak saya untuk melihatnya tf.nn.softmax_cross_entropy_with_logits_v2. Saya melihat melalui dokumentasi tetapi hanya menyatakan bahwa untuk …

6
Backpropagation dengan Softmax / Cross Entropy
Saya mencoba memahami bagaimana backpropagation bekerja untuk lapisan output softmax / cross-entropy. Fungsi kesalahan lintas entropi adalah E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j dengan ttt dan ooo sebagai target dan output pada neuron jjj , masing-masing. Jumlahnya adalah di atas setiap neuron di lapisan output. ojojo_j itu sendiri merupakan hasil dari fungsi …

5
Backpropagation vs Genetic Algorithm untuk pelatihan Neural Network
Saya telah membaca beberapa makalah yang membahas pro dan kontra dari masing-masing metode, beberapa berpendapat bahwa GA tidak memberikan perbaikan dalam menemukan solusi optimal sementara yang lain menunjukkan bahwa itu lebih efektif. Tampaknya GA umumnya lebih disukai dalam literatur (walaupun kebanyakan orang memodifikasinya dengan cara tertentu untuk mencapai hasil yang …

4
Mengapa tanh hampir selalu lebih baik daripada sigmoid sebagai fungsi aktivasi?
Dalam kursus Neural Networks dan Deep Learning Andrew Ng di Coursera ia mengatakan bahwa menggunakan tanhtanhtanh hampir selalu lebih disukai daripada menggunakan sigmoidsigmoidsigmoid . Alasan yang dia berikan adalah bahwa output menggunakan tanhtanhtanh pusat sekitar 0 daripada sigmoidsigmoidsigmoid 's 0,5, dan ini "membuat belajar untuk lapisan berikutnya sedikit lebih mudah". …



1
Backpropagation yang luar biasa melalui koneksi lewati ResNet
Saya ingin tahu tentang bagaimana gradien diperbanyak kembali melalui jaringan saraf menggunakan modul ResNet / lewati koneksi. Saya telah melihat beberapa pertanyaan tentang ResNet (mis. Jaringan saraf dengan koneksi lompatan-lapisan ) tetapi yang satu ini menanyakan secara khusus tentang back-propagation of gradien selama pelatihan. Arsitektur dasarnya ada di sini: Saya …

3
Mengapa menggunakan gradient descent dengan jaringan saraf?
Saat melatih jaringan saraf menggunakan algoritma back-propagation, metode gradient descent digunakan untuk menentukan pembaruan bobot. Pertanyaan saya adalah: Daripada menggunakan metode gradient descent untuk secara perlahan menemukan titik minimum sehubungan dengan bobot tertentu, mengapa kita tidak mengatur turunan , dan temukan nilai bobot yang meminimalkan kesalahan?wd( Kesalahan )dw= 0d(Kesalahan)dw=0\frac{d(\text{Error})}{dw}=0www Juga, …

2
Dalam jaring saraf, mengapa menggunakan metode gradien daripada metaheuristik lainnya?
Dalam pelatihan jaringan saraf yang dalam dan dangkal, mengapa metode gradien (misalnya gradient descent, Nesterov, Newton-Raphson) umum digunakan, berbeda dengan metaheuristik lainnya? Metaheuristik yang saya maksud adalah metode seperti annealing yang disimulasikan, optimisasi koloni semut, dll., Yang dikembangkan untuk menghindari terjebak dalam minima lokal.


2
Algoritma backpropagation
Saya mendapat sedikit kebingungan pada algoritma backpropagation yang digunakan dalam multilayer perceptron (MLP). Kesalahan disesuaikan dengan fungsi biaya. Dalam backpropagation, kami mencoba untuk menyesuaikan berat lapisan yang tersembunyi. Kesalahan keluaran yang bisa saya mengerti, yaitu, e = d - y[Tanpa subskrip]. Pertanyaannya adalah: Bagaimana cara mendapatkan kesalahan dari lapisan tersembunyi? …


3
Mengapa kembali merambat melalui waktu dalam RNN?
Dalam jaringan saraf berulang, Anda biasanya akan maju merambat melalui beberapa langkah waktu, "membuka gulungan" jaringan, dan kemudian kembali merambat melintasi urutan input. Mengapa Anda tidak hanya memperbarui bobot setelah masing-masing langkah dalam urutan? (setara dengan menggunakan panjang pemotongan 1, sehingga tidak ada yang membuka gulungan) Ini benar-benar menghilangkan masalah …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.