Penghargaan untuk jawaban ini diberikan kepada @ttnphns yang menjelaskan semuanya dalam komentar di atas. Tetap saja, saya ingin memberikan jawaban yang panjang.
Untuk pertanyaan Anda: Apakah hasil LDA pada fitur standar dan non-standar akan persis sama? --- jawabannya adalah Ya . Pertama saya akan memberikan argumen informal, dan kemudian melanjutkan dengan beberapa matematika.
Bayangkan dataset 2D ditampilkan sebagai sebaran plot di satu sisi balon (gambar balon asli diambil dari sini ):
Di sini titik merah adalah satu kelas, titik hijau adalah kelas lain, dan garis hitam adalah batas kelas LDA. Sekarang penskalaan sumbu atau berhubungan dengan peregangan balon secara horizontal atau vertikal. Secara intuitif jelas bahwa meskipun kemiringan garis hitam akan berubah setelah peregangan seperti itu, kelas-kelas akan dapat dipisahkan seperti sebelumnya, dan posisi relatif dari garis hitam tidak akan berubah. Setiap pengamatan tes akan ditugaskan ke kelas yang sama seperti sebelum peregangan. Jadi bisa dikatakan bahwa peregangan tidak mempengaruhi hasil LDA.yxy
Sekarang, secara matematis, LDA menemukan seperangkat sumbu diskriminan dengan menghitung vektor eigen dari , di mana dan berada di dalam dan di antara kelas matriks pencar. Secara ekivalen, ini adalah vektor eigen umum dari masalah nilai eigen umum .W B B v =λ W vW−1BWBBv=λWv
Pertimbangkan matriks data terpusat dengan variabel dalam kolom dan titik data dalam baris, sehingga total matriks sebaran diberikan oleh . Membakukan jumlah data untuk menskalakan setiap kolom dengan angka tertentu, yaitu menggantinya dengan , di mana adalah matriks diagonal dengan koefisien penskalaan (invers dari standar deviasi setiap kolom) pada diagonal. Setelah pengubahan ukuran tersebut, matriks sebar akan berubah sebagai berikut: , dan transformasi yang sama akan terjadi denganT = X ⊤ X XXT=X⊤XXXnew=XΛΛTnew=ΛTΛWnew dan .Bnew
Biarkan menjadi vektor eigen dari masalah asli, yaituJika kita mengalikan persamaan ini dengan di sebelah kiri, dan menyisipkan di kedua sisi sebelum , kita mendapatkan yaitu yang berarti bahwav
Bv=λWv.
ΛΛΛ−1vΛBΛΛ−1v=λΛWΛΛ−1v,
BnewΛ−1v=λWnewΛ−1v,
Λ−1vadalah vektor eigen setelah pengubahan ukuran dengan nilai eigen yang persis sama seperti sebelumnya.
λ
Jadi sumbu diskriminan (diberikan oleh vektor eigen) akan berubah, tetapi nilai eigennya, yang menunjukkan seberapa banyak kelas-kelas dipisahkan, akan tetap sama persis. Selain itu, proyeksi pada sumbu ini, yang semula diberikan oleh , sekarang akan diberikan oleh , yaitu juga akan tetap sama persis (mungkin hingga faktor penskalaan).XvXΛ(Λ−1v)=Xv
in general a "Z-score normalization" (or standardization) of features won't be necessary, even if they are measured on completely different scales
Tidak, pernyataan ini salah. Masalah standardisasi dengan LDA adalah sama seperti dalam metode multivarian apa pun. Misalnya, PCA. Jarak Mahalanobis tidak ada hubungannya dengan topik itu.