1
Apa turunan dari fungsi aktivasi ReLU?
Apa turunan dari fungsi aktivasi ReLU didefinisikan sebagai: ReLU(x)=max(0,x)ReLU(x)=max(0,x) \mathrm{ReLU}(x) = \mathrm{max}(0, x) Bagaimana dengan kasus khusus di mana ada diskontinuitas dalam fungsi di ?x=0x=0x=0