"Analisis Diskriminan Fisher" hanyalah LDA dalam situasi 2 kelas. Ketika hanya ada 2 kelas perhitungan dengan tangan layak dan analisis langsung terkait dengan Regresi Berganda. LDA adalah perpanjangan langsung dari ide Fisher tentang situasi sejumlah kelas dan menggunakan perangkat aljabar matriks (seperti komposisi eigend) untuk menghitungnya. Jadi, istilah "Analisis Diskriminan Nelayan" dapat dilihat sebagai usang hari ini. "Analisis Diskriminan Linier" harus digunakan sebagai gantinya. Lihat juga . Analisis diskriminan dengan 2+ kelas (multi-kelas) adalah kanonik dengan algoritmanya (mengekstrak dicriminan sebagai variasi kanonik); istilah langka "Analisis Diskriminan Canonical"
Fisher menggunakan apa yang kemudian disebut "fungsi klasifikasi Fisher" untuk mengklasifikasikan objek setelah fungsi diskriminan dihitung. Saat ini, pendekatan Bayes yang lebih umum digunakan dalam prosedur LDA untuk mengklasifikasikan objek.
Untuk permintaan Anda untuk penjelasan tentang LDA, saya dapat mengirimkan jawaban ini kepada saya: ekstraksi dalam LDA , klasifikasi dalam LDA , LDA di antara prosedur terkait . Juga ini , ini , ini pertanyaan dan jawaban.
Sama seperti ANOVA membutuhkan asumsi varians yang sama, LDA memerlukan asumsi matriks varians-kovarians yang sama (antara variabel input) dari kelas. Asumsi ini penting untuk tahap klasifikasi analisis. Jika matriks secara substansial berbeda, pengamatan akan cenderung ditugaskan ke kelas di mana variabilitas lebih besar. Untuk mengatasi masalah tersebut, QDA ditemukan. QDA adalah modifikasi dari LDA yang memungkinkan heterogenitas matriks kovarian kelas di atas.
Jika Anda memiliki heterogenitas (seperti yang terdeteksi misalnya dengan uji M Box) dan Anda tidak memiliki QDA di tangan, Anda masih dapat menggunakan LDA dalam rezim menggunakan matriks kovarians individu (bukan matriks gabungan) dari diskriminan di klasifikasi . Ini sebagian memecahkan masalah, meskipun kurang efektif daripada di QDA, karena - seperti yang baru saja ditunjukkan - ini adalah matriks antara diskriminan dan bukan antara variabel asli (yang matriksnya berbeda).
Biarkan saya menganalisis data contoh Anda sendiri.
Membalas @ zyxue dan komentar
LDA adalah apa yang Anda tetapkan FDA dalam jawaban Anda. LDA pertama mengekstraksi konstruksi linier (disebut diskriminan) yang memaksimalkan antara dalam pemisahan, dan kemudian menggunakan mereka untuk melakukan klasifikasi (gaussian). Jika (seperti yang Anda katakan) LDA tidak terikat dengan tugas untuk mengekstraksi LDA diskriminan tampaknya hanya menjadi penggolong gaussian, tidak ada nama "LDA" yang diperlukan sama sekali.
SwSwBegitu pula kovarian-kovarian dalam kelas itu sama, identitas; hak untuk menggunakannya menjadi mutlak.)
Gaussian classifier (tahap kedua LDA) menggunakan aturan Bayes untuk menetapkan pengamatan ke kelas oleh diskriminan. Hasil yang sama dapat dicapai melalui apa yang disebut fungsi klasifikasi linier Fisher yang memanfaatkan fitur asli secara langsung. Namun, pendekatan Bayes berdasarkan diskriminasi agak sedikit umum karena akan memungkinkan untuk menggunakan matriks kovarian diskriminan kelas yang terpisah juga, selain cara default untuk menggunakan satu, yang dikumpulkan. Juga, itu akan memungkinkan untuk mendasarkan klasifikasi pada subset dari diskriminan.
Ketika hanya ada dua kelas, kedua tahap LDA dapat dijelaskan bersama dalam satu pass tunggal karena "ekstraksi laten" dan "klasifikasi pengamatan" mengurangi kemudian ke tugas yang sama.