2
Mengapa ReLU digunakan sebagai fungsi aktivasi?
Fungsi aktivasi digunakan untuk memperkenalkan non-linearitas dalam output linear dari tipe w * x + bdalam jaringan saraf. Yang saya bisa mengerti secara intuitif untuk fungsi aktivasi seperti sigmoid. Saya mengerti keuntungan dari ReLU, yaitu menghindari neuron mati selama backpropagation. Namun, saya tidak dapat memahami mengapa ReLU digunakan sebagai fungsi …