Pertanyaan yang diberi tag «discriminant-analysis»

Linear Discriminant Analysis (LDA) adalah metode pengurangan dimensi dan klasifikasi. Ia menemukan subruang dimensi rendah dengan pemisahan kelas terkuat dan menggunakannya untuk melakukan klasifikasi. Gunakan tag ini untuk DA kuadrat (QDA) juga.


2
Mengapa Python scikit-learn LDA tidak bekerja dengan benar dan bagaimana cara menghitung LDA melalui SVD?
Saya menggunakan Linear Discriminant Analysis (LDA) dari scikit-learnperpustakaan pembelajaran mesin (Python) untuk pengurangan dimensi dan sedikit ingin tahu tentang hasilnya. Sekarang saya bertanya-tanya apa yang dilakukan LDA scikit-learnsehingga hasilnya terlihat berbeda dari, misalnya, pendekatan manual atau LDA yang dilakukan di R. Akan lebih bagus jika seseorang bisa memberi saya wawasan …


1
PCA, LDA, CCA, dan PLS
Bagaimana PCA, LDA, CCA, dan PLS terkait? Mereka semua tampak "spektral" dan aljabar linier dan sangat dipahami (katakanlah 50+ tahun teori dibangun di sekitar mereka). Mereka digunakan untuk hal-hal yang sangat berbeda (PCA untuk pengurangan dimensi, LDA untuk klasifikasi, PLS untuk regresi) tetapi masih mereka merasa sangat erat terkait.

2
Apakah masuk akal untuk menggabungkan PCA dan LDA?
Asumsikan saya memiliki dataset untuk tugas klasifikasi statistik terawasi, misalnya, melalui pengklasifikasi Bayes. Dataset ini terdiri dari 20 fitur dan saya ingin meringkasnya menjadi 2 fitur melalui teknik pengurangan dimensionalitas seperti Principal Component Analysis (PCA) dan / atau Linear Discriminant Analysis (LDA). Kedua teknik memproyeksikan data ke subruang fitur yang …


1
Bagaimana LDA, teknik klasifikasi, juga berfungsi sebagai teknik reduksi dimensi seperti PCA
Pada artikel ini , penulis menghubungkan analisis diskriminan linier (LDA) ke analisis komponen utama (PCA). Dengan pengetahuan saya yang terbatas, saya tidak bisa mengikuti bagaimana LDA bisa agak mirip dengan PCA. Saya selalu berpikir bahwa LDA adalah bentuk algoritma klasifikasi, mirip dengan regresi logistik. Saya akan menghargai bantuan dalam memahami …

1
Hitung dan buat grafik batas keputusan LDA
Saya melihat plot LDA (analisis diskriminan linier) dengan batas keputusan dari The Elements of Statistics Learning : Saya mengerti bahwa data diproyeksikan ke ruang bagian dimensi yang lebih rendah. Namun, saya ingin tahu bagaimana kita mendapatkan batas keputusan dalam dimensi asli sehingga saya dapat memproyeksikan batas keputusan ke ruang bagian …

1
Bagaimana MANOVA terkait dengan LDA?
Di beberapa tempat saya melihat klaim bahwa MANOVA seperti ANOVA plus linear diskriminant analysis (LDA), tetapi selalu dibuat dengan cara melambaikan tangan. Saya ingin tahu apa sebenarnya yang seharusnya berarti. Saya menemukan berbagai buku teks yang menjelaskan semua detail perhitungan MANOVA, tetapi tampaknya sangat sulit untuk menemukan diskusi umum yang …




2
Apa itu "koefisien diskriminan linier" dalam LDA?
Dalam R, saya menggunakan ldafungsi dari perpustakaan MASSuntuk melakukan klasifikasi. Seperti yang saya mengerti LDA, input xxx akan diberi label yyy , yang memaksimalkan p(y|x)p(y|x)p(y|x) , kan? Tapi ketika saya cocok dengan model, di mana x=(Lag1,Lag2)x=(Lag1,Lag2)x=(Lag1,Lag2)y=Direction,y=Direction,y=Direction, saya tidak begitu mengerti output dari lda, Edit: untuk mereproduksi output di bawah ini, …


1
Turunkan total (dalam kelas + antar kelas) matriks pencar
Saya mengutak-atik metode PCA dan LDA dan saya terjebak pada suatu titik, saya punya perasaan bahwa itu sangat sederhana sehingga saya tidak bisa melihatnya. Matriks sebar dalam kelas ( SWSWS_W ) dan antara kelas ( SBSBS_B ) didefinisikan sebagai: SW=∑i=1C∑t=1N(xit−μi)(xit−μi)TSW=∑i=1C∑t=1N(xti−μi)(xti−μi)T S_W = \sum_{i=1}^C\sum_{t=1}^N(x_t^i - \mu_i)(x_t^i - \mu_i)^T SB=∑i=1CN(μi−μ)(μi−μ)TSB=∑i=1CN(μi−μ)(μi−μ)T S_B = …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.