Mengapa fungsi aktivasi unit linear yang diperbaiki (ReLU) dianggap non-linear?
Mereka linier ketika input positif dan dari pemahaman saya untuk membuka kekuatan representatif dari jaringan yang dalam, aktivasi non-linear adalah suatu keharusan, jika tidak seluruh jaringan dapat diwakili oleh satu lapisan.