Saya punya satu pertanyaan berkenaan dengan kebutuhan untuk menggunakan metode pemilihan fitur (Acak fitur nilai pentingnya hutan atau metode pemilihan fitur Univariat dll) sebelum menjalankan algoritma pembelajaran statistik.
Kami tahu untuk menghindari overfitting, kami dapat menerapkan penalti regularisasi pada vektor bobot.
Jadi jika saya ingin melakukan regresi linier, maka saya bisa memperkenalkan L2 atau L1 atau bahkan parameter regularisasi net. Untuk mendapatkan solusi yang jarang, penalti L1 membantu dalam pemilihan fitur.
Lalu apakah masih diperlukan untuk melakukan pemilihan fitur sebelum menjalankan regresi regularisasi L1 seperti Lasso ?. Secara teknis Lasso membantu saya mengurangi fitur dengan penalti L1 lalu mengapa pemilihan fitur diperlukan sebelum menjalankan algo?
Saya membaca sebuah artikel penelitian yang mengatakan bahwa melakukan Anova maka SVM memberikan kinerja yang lebih baik daripada menggunakan SVM saja. Sekarang pertanyaannya adalah: SVM secara inheren melakukan regularisasi menggunakan norma L2. Untuk memaksimalkan margin, meminimalkan norma vektor bobot. Jadi ia melakukan regularisasi dalam fungsi objektifnya. Maka secara teknis algoritma seperti SVM tidak boleh diganggu dengan metode pemilihan fitur ?. Tetapi laporan itu masih mengatakan melakukan pemilihan Fitur Univariat sebelum SVM normal lebih kuat.
Adakah yang punya pikiran?