Jawaban:
Jika Anda menerapkan normalisasi (menekan [0,1]) Anda akan memiliki ukuran kepentingan variabel relatif tetapi itu akan mengubah skala variabel Anda dan Anda akan kehilangan semua interpretabilitas model. Keuntungan dari standardisasi adalah bahwa Anda masih dapat menafsirkan model seperti yang Anda lakukan dengan regresi OLS yang tidak diregulasi (ini sudah dijawab di sini ).
Normalisasi sangat penting untuk metode dengan regularisasi. Ini karena skala variabel mempengaruhi seberapa banyak regularisasi akan berlaku untuk variabel tertentu.
Sebagai contoh, misalkan satu variabel dalam skala yang sangat besar, katakanlah urutan jutaan dan variabel lain adalah dari 0 hingga 1. Kemudian, kita dapat berpikir bahwa regularisasi akan sedikit berpengaruh pada variabel pertama.
Seperti halnya kita melakukan normalisasi, menormalkannya menjadi 0 hingga 1 atau menstandarisasi fitur tidak terlalu menjadi masalah.