4
Mengapa tanh hampir selalu lebih baik daripada sigmoid sebagai fungsi aktivasi?
Dalam kursus Neural Networks dan Deep Learning Andrew Ng di Coursera ia mengatakan bahwa menggunakan tanhtanhtanh hampir selalu lebih disukai daripada menggunakan sigmoidsigmoidsigmoid . Alasan yang dia berikan adalah bahwa output menggunakan tanhtanhtanh pusat sekitar 0 daripada sigmoidsigmoidsigmoid 's 0,5, dan ini "membuat belajar untuk lapisan berikutnya sedikit lebih mudah". …