Pertanyaan yang diberi tag «dimensionality-reduction»

Mengacu pada teknik untuk mengurangi sejumlah besar variabel atau dimensi yang direntang oleh data ke sejumlah kecil dimensi sambil tetap mempertahankan sebanyak mungkin informasi tentang data tersebut. Metode yang menonjol termasuk PCA, MDS, Isomap, dll. Dua subclass utama teknik: ekstraksi fitur dan pemilihan fitur.


1
Bagaimana cara membalikkan PCA dan merekonstruksi variabel asli dari beberapa komponen utama?
Analisis komponen utama (PCA) dapat digunakan untuk pengurangan dimensi. Setelah pengurangan dimensi seperti itu dilakukan, bagaimana kira-kira orang dapat merekonstruksi variabel / fitur asli dari sejumlah kecil komponen utama? Atau, bagaimana seseorang dapat menghapus atau membuang beberapa komponen utama dari data? Dengan kata lain, bagaimana cara membalikkan PCA? Mengingat bahwa …


4
PCA dan proporsi varian dijelaskan
Secara umum, apa yang dimaksud dengan mengatakan bahwa fraksi xxx varian dalam analisis seperti PCA dijelaskan oleh komponen utama pertama? Dapatkah seseorang menjelaskan hal ini secara intuitif tetapi juga memberikan definisi matematis yang tepat tentang apa yang dimaksud "varians dijelaskan" dalam hal analisis komponen utama (PCA)? Untuk regresi linier sederhana, …

2
Apa perbedaan antara ZCA whitening dan PCA whitening?
Saya bingung tentang ZCA whitening dan normal whitening (yang diperoleh dengan membagi komponen utama dengan akar kuadrat dari nilai eigen PCA). Sejauh yang aku tahu, xZCAwhite=UxPCAwhite,xZCAwhite=UxPCAwhite,\mathbf x_\mathrm{ZCAwhite} = \mathbf U \mathbf x_\mathrm{PCAwhite}, mana adalah vektor eigen PCA.UU\mathbf U Apa kegunaan dari ZCA whitening? Apa perbedaan antara pemutihan normal dan pemutihan …

6
Cara berprinsip untuk mengecilkan variabel kategori dengan banyak tingkatan?
Teknik apa yang tersedia untuk mengelompokkan (atau mengelompokkan) banyak kategori menjadi beberapa, untuk tujuan menggunakannya sebagai input (prediktor) dalam model statistik? Pertimbangkan variabel seperti jurusan mahasiswa (disiplin yang dipilih oleh mahasiswa sarjana). Itu tidak teratur dan kategorikal, tetapi berpotensi memiliki lusinan tingkat yang berbeda. Katakanlah saya ingin menggunakan jurusan sebagai …


2
Kapan t-SNE menyesatkan?
Mengutip dari salah satu penulis: t-Distributed Stochastic Neighbor Embedding (t-SNE) adalah teknik ( pemenang hadiah ) untuk pengurangan dimensi yang sangat cocok untuk visualisasi dataset dimensi tinggi. Jadi kedengarannya hebat, tapi itu yang penulis bicarakan. Kutipan lain dari penulis (re: kompetisi yang disebutkan sebelumnya): Apa yang telah Anda ambil dari …

3
Mengapa t-SNE tidak digunakan sebagai teknik reduksi dimensi untuk pengelompokan atau klasifikasi?
Dalam penugasan terbaru, kami disuruh menggunakan PCA pada digit MNIST untuk mengurangi dimensi dari 64 (8 x 8 gambar) menjadi 2. Kami kemudian harus mengelompokkan digit menggunakan Gaussian Mixture Model. PCA hanya menggunakan 2 komponen utama tidak menghasilkan cluster yang berbeda dan akibatnya model tidak dapat menghasilkan pengelompokan yang bermanfaat. …

1
Apa alasan intuitif di balik melakukan rotasi dalam Analisis Faktor / PCA & bagaimana memilih rotasi yang tepat?
Pertanyaan saya Apa alasan intuitif di balik melakukan rotasi faktor dalam analisis faktor (atau komponen dalam PCA)? Pemahaman saya adalah, jika variabel dimuat hampir sama di komponen atas (atau faktor) maka jelas sulit untuk membedakan komponen. Jadi dalam hal ini kita bisa menggunakan rotasi untuk mendapatkan diferensiasi komponen yang lebih …

1
Bagaimana PCA membantu dengan analisis pengelompokan k-means?
Latar Belakang : Saya ingin mengklasifikasikan area perumahan kota ke dalam kelompok berdasarkan karakteristik sosial-ekonomi mereka, termasuk kepadatan unit perumahan, kepadatan populasi, area ruang hijau, harga perumahan, jumlah sekolah / pusat kesehatan / pusat penitipan anak, dll. Saya ingin memahami berapa banyak kelompok yang berbeda di daerah perumahan dapat dibagi …

1
Pengurangan dimensi (SVD atau PCA) pada matriks besar dan jarang
/ edit: Tindak lanjut lebih lanjut sekarang Anda dapat menggunakan irlba :: prcomp_irlba / edit: menindaklanjuti posting saya sendiri. irlbasekarang memiliki argumen "pusat" dan "skala", yang memungkinkan Anda menggunakannya untuk menghitung komponen prinsip, misalnya: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Saya memiliki banyak Matrixfitur yang ingin saya …

5
Cara menangani data hierarkis / bersarang dalam pembelajaran mesin
Saya akan menjelaskan masalah saya dengan sebuah contoh. Misalkan Anda ingin memprediksi penghasilan seseorang yang diberikan beberapa atribut: {Usia, Jenis Kelamin, Negara, Wilayah, Kota}. Anda memiliki dataset pelatihan seperti itu train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

4
Bagaimana cara mengurangi dimensi dalam R
Saya memiliki matriks di mana a (i, j) memberi tahu saya berapa kali individu yang saya lihat halaman j. Ada 27K individu dan 95K halaman. Saya ingin memiliki beberapa "dimensi" atau "aspek" dalam ruang halaman yang sesuai dengan set halaman yang sering dilihat bersama. Tujuan utama saya adalah untuk kemudian …

2
Mengapa Python scikit-learn LDA tidak bekerja dengan benar dan bagaimana cara menghitung LDA melalui SVD?
Saya menggunakan Linear Discriminant Analysis (LDA) dari scikit-learnperpustakaan pembelajaran mesin (Python) untuk pengurangan dimensi dan sedikit ingin tahu tentang hasilnya. Sekarang saya bertanya-tanya apa yang dilakukan LDA scikit-learnsehingga hasilnya terlihat berbeda dari, misalnya, pendekatan manual atau LDA yang dilakukan di R. Akan lebih bagus jika seseorang bisa memberi saya wawasan …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.