Pertanyaan yang diberi tag «pca»

Principal component analysis (PCA) adalah teknik reduksi dimensi linear. Ini mengurangi dataset multivariat ke set yang lebih kecil dari variabel yang dibangun menjaga informasi sebanyak mungkin (sebanyak varians) mungkin. Variabel-variabel ini, yang disebut komponen utama, adalah kombinasi linear dari variabel input.

1
PCA dan analisis Korespondensi dalam hubungannya dengan Biplot
Biplot sering digunakan untuk menampilkan hasil analisis komponen utama (dan teknik terkait). Ini adalah scatterplot ganda atau overlay yang menunjukkan pemuatan komponen dan skor komponen secara bersamaan. Saya diberitahu oleh @amoeba hari ini bahwa dia telah memberikan jawaban yang berangkat dari komentar saya ke pertanyaan yang menanyakan tentang bagaimana koordinat …


3
Apakah tanda skor atau beban di PCA atau FA memiliki arti? Bolehkah saya membalikkan tandanya?
Saya melakukan analisis komponen utama (PCA) dengan R menggunakan dua fungsi yang berbeda ( prcompdan princomp) dan mengamati bahwa skor PCA berbeda dalam tanda. Bagaimana bisa? Pertimbangkan ini: set.seed(999) prcomp(data.frame(1:10,rnorm(10)))$x PC1 PC2 [1,] -4.508620 -0.2567655 [2,] -3.373772 -1.1369417 [3,] -2.679669 1.0903445 [4,] -1.615837 0.7108631 [5,] -0.548879 0.3093389 [6,] 0.481756 0.1639112 …
37 r  pca  factor-analysis 

3
Linearitas PCA
PCA dianggap sebagai prosedur linier, namun: P C A (X) ≠ P C A ( X1) + P C A ( X2) + ... + P C A ( Xn) ,PCSEBUAH(X)≠PCSEBUAH(X1)+PCSEBUAH(X2)+...+PCSEBUAH(Xn),\mathrm{PCA}(X)\neq \mathrm{PCA}(X_1)+\mathrm{PCA}(X_2)+\ldots+\mathrm{PCA}(X_n), di mana . Ini untuk mengatakan bahwa vektor eigen yang diperoleh PCA pada matriks data tidak meringkaskan sama …
35 pca  linear 

3
PCA dan split kereta / tes
Saya memiliki dataset yang memiliki beberapa set label biner. Untuk setiap set label, saya melatih classifier, mengevaluasinya dengan validasi silang. Saya ingin mengurangi dimensi menggunakan analisis komponen utama (PCA). Pertanyaanku adalah: Apakah mungkin untuk melakukan PCA satu kali untuk seluruh dataset dan kemudian menggunakan dataset baru dengan dimensi yang lebih …

3
Mengapa t-SNE tidak digunakan sebagai teknik reduksi dimensi untuk pengelompokan atau klasifikasi?
Dalam penugasan terbaru, kami disuruh menggunakan PCA pada digit MNIST untuk mengurangi dimensi dari 64 (8 x 8 gambar) menjadi 2. Kami kemudian harus mengelompokkan digit menggunakan Gaussian Mixture Model. PCA hanya menggunakan 2 komponen utama tidak menghasilkan cluster yang berbeda dan akibatnya model tidak dapat menghasilkan pengelompokan yang bermanfaat. …

1
Apa alasan intuitif di balik melakukan rotasi dalam Analisis Faktor / PCA & bagaimana memilih rotasi yang tepat?
Pertanyaan saya Apa alasan intuitif di balik melakukan rotasi faktor dalam analisis faktor (atau komponen dalam PCA)? Pemahaman saya adalah, jika variabel dimuat hampir sama di komponen atas (atau faktor) maka jelas sulit untuk membedakan komponen. Jadi dalam hal ini kita bisa menggunakan rotasi untuk mendapatkan diferensiasi komponen yang lebih …

1
Bagaimana PCA membantu dengan analisis pengelompokan k-means?
Latar Belakang : Saya ingin mengklasifikasikan area perumahan kota ke dalam kelompok berdasarkan karakteristik sosial-ekonomi mereka, termasuk kepadatan unit perumahan, kepadatan populasi, area ruang hijau, harga perumahan, jumlah sekolah / pusat kesehatan / pusat penitipan anak, dll. Saya ingin memahami berapa banyak kelompok yang berbeda di daerah perumahan dapat dibagi …


1
Fungsi objektif PCA: apa hubungan antara memaksimalkan varians dan meminimalkan kesalahan?
Algoritma PCA dapat dirumuskan dalam bentuk matriks korelasi (anggap data telah dinormalisasi dan kami hanya mempertimbangkan proyeksi ke PC pertama). Fungsi objektif dapat ditulis sebagai:XXX maxw(Xw)T(Xw)s.t.wTw=1.maxw(Xw)T(Xw)s.t.wTw=1. \max_w (Xw)^T(Xw)\; \: \text{s.t.} \: \:w^Tw = 1. Ini bagus, dan kami menggunakan pengganda Lagrangian untuk menyelesaikannya, yaitu menulis ulang sebagai: maxw[(Xw)T(Xw)−λwTw],maxw[(Xw)T(Xw)−λwTw], \max_w [(Xw)^T(Xw) …
32 pca  optimization 

3
Membangun autoencoder di Tensorflow untuk melampaui PCA
Hinton dan Salakhutdinov dalam Mengurangi Dimensi Data dengan Neural Networks, Science 2006 mengusulkan PCA non-linear melalui penggunaan autoencoder yang mendalam. Saya telah mencoba membangun dan melatih autoencoder PCA dengan Tensorflow beberapa kali tetapi saya tidak pernah dapat memperoleh hasil yang lebih baik daripada PCA linier. Bagaimana saya bisa melatih autoencoder …

5
Mendeteksi prediktor signifikan dari banyak variabel independen
Dalam dataset dari dua populasi yang tidak tumpang tindih (pasien & sehat, total ) saya ingin mencari (dari variabel independen) prediktor signifikan untuk variabel dependen berkelanjutan. Ada korelasi antara prediktor. Saya tertarik untuk mencari tahu apakah salah satu prediktor terkait dengan variabel dependen "dalam kenyataan" (daripada memprediksi variabel dependen setepat …

1
Pengurangan dimensi (SVD atau PCA) pada matriks besar dan jarang
/ edit: Tindak lanjut lebih lanjut sekarang Anda dapat menggunakan irlba :: prcomp_irlba / edit: menindaklanjuti posting saya sendiri. irlbasekarang memiliki argumen "pusat" dan "skala", yang memungkinkan Anda menggunakannya untuk menghitung komponen prinsip, misalnya: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Saya memiliki banyak Matrixfitur yang ingin saya …

3
Visualisasi sejuta, edisi PCA
Apakah mungkin untuk memvisualisasikan output dari Analisis Komponen Utama dengan cara yang memberikan wawasan lebih dari sekadar tabel ringkasan? Apakah mungkin untuk melakukannya ketika jumlah pengamatan besar, katakan ~ 1e4? Dan mungkinkah melakukannya di R [lingkungan lain diterima]?

4
Cara melakukan pengurangan dimensionalitas dengan PCA di R
Saya memiliki dataset besar dan saya ingin melakukan pengurangan dimensionalitas. Sekarang di mana-mana saya membaca bahwa saya dapat menggunakan PCA untuk ini. Namun, saya masih belum mendapatkan apa yang harus dilakukan setelah menghitung / melakukan PCA. Dalam R ini mudah dilakukan dengan perintah princomp. Tetapi apa yang harus dilakukan setelah …
30 r  pca 

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.