Jawaban:
"Backprop" sama dengan "backpropagation": itu hanya cara yang lebih singkat untuk mengatakannya. Kadang-kadang disingkat "BP".
'Backprop' adalah kependekan dari 'backpropagation of error' untuk menghindari kebingungan saat menggunakan istilah backpropagation .
Pada dasarnya backpropagation mengacu pada metode untuk menghitung gradien dari fungsi kesalahan case-wise sehubungan dengan bobot untuk Werbos feedforward network . Dan backprop mengacu pada metode pelatihan yang menggunakan backpropagation untuk menghitung gradien.
Jadi kita dapat mengatakan bahwa jaringan backprop adalah jaringan feedforward yang dilatih oleh backpropagation .
Istilah 'backprop standar' adalah eufemisme untuk aturan delta umum yang paling banyak digunakan metode pelatihan yang diawasi.
Sumber: Apa itu backprop? di FAQ newsgroup Usenet comp.ai.neural-nets
Referensi:
Ya, seperti yang dikatakan oleh Franck, "backprop" berarti backpropogation, yang sering digunakan dalam domain jaringan saraf untuk optimasi kesalahan.
Untuk penjelasan terperinci, saya akan menunjukkan tutorial ini tentang konsep backpropogation oleh buku Michael Nielsen yang sangat bagus.
Dalam pembelajaran mesin, backpropagation (backprop, BP) adalah algoritma yang banyak digunakan dalam pelatihan jaringan saraf feedforward untuk pembelajaran yang diawasi. Generalisasi backpropagation ada untuk jaringan saraf tiruan lainnya (JST), dan untuk fungsi umumnya - kelas algoritma yang secara umum disebut "backpropagation".
Itu nama mewah untuk aturan rantai multivariabel.