Misalkan saya memiliki jaringan neural single layer yang sederhana, dengan n input dan output tunggal (tugas klasifikasi biner). Jika saya mengatur fungsi aktivasi di node output sebagai fungsi sigmoid- maka hasilnya adalah classifier Logistic Regression.
Dalam skenario yang sama ini, jika saya mengubah aktivasi output ke ReLU (unit linear yang diperbaiki), lalu apakah struktur yang dihasilkan sama atau mirip dengan SVM?
Jika tidak mengapa?