Pembelajaran mesin (ML) banyak menggunakan teknik regresi linier dan logistik. Hal ini juga bergantung pada teknik rekayasa fitur ( feature transform
, kernel
, dll).
Mengapa tidak ada sekitar variable transformation
(misalnya power transformation
) yang disebutkan dalam ML? (Misalnya, saya tidak pernah mendengar tentang mengambil root atau masuk ke fitur, mereka biasanya hanya menggunakan polinomial atau RBF). Demikian juga, mengapa para pakar ML tidak peduli tentang transformasi fitur untuk variabel dependen? (Misalnya, saya tidak pernah mendengar tentang mengambil transformasi log y; mereka hanya tidak mentransformasikan y.)
Suntingan: Mungkin pertanyaannya tidak pasti, pertanyaan saya yang sebenarnya adalah "apakah transformasi daya ke variabel tidak penting dalam ML?"