Pertanyaan yang diberi tag «pca»

Principal component analysis (PCA) adalah teknik reduksi dimensi linear. Ini mengurangi dataset multivariat ke set yang lebih kecil dari variabel yang dibangun menjaga informasi sebanyak mungkin (sebanyak varians) mungkin. Variabel-variabel ini, yang disebut komponen utama, adalah kombinasi linear dari variabel input.

1
Mengapa fungsi R 'prompomp' dan 'prcomp' memberikan nilai eigen yang berbeda?
Anda dapat menggunakan dataset decathlon {FactoMineR} untuk mereproduksi ini. Pertanyaannya adalah mengapa nilai eigen yang dikomputasi berbeda dari nilai matriks kovarians. Berikut adalah nilai-nilai eigen yang digunakan princomp: > library(FactoMineR);data(decathlon) > pr <- princomp(decathlon[1:10], cor=F) > pr$sd^2 Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 1.348073e+02 2.293556e+01 9.747263e+00 1.117215e+00 3.477705e-01 1.326819e-01 Comp.7 …
22 r  pca 

2
Bisakah PCA diterapkan untuk data deret waktu?
Saya mengerti bahwa Principal Component Analysis (PCA) dapat diterapkan pada dasarnya untuk data cross sectional. Dapatkah PCA digunakan untuk data deret waktu secara efektif dengan menetapkan tahun sebagai variabel deret waktu dan menjalankan PCA secara normal? Saya telah menemukan bahwa PCA dinamis berfungsi untuk data panel dan pengkodean di Stata …
22 time-series  pca 

2
Batas estimator regresi ridge regresi “unit-variance” ketika
Pertimbangkan regresi ridge dengan kendala tambahan mengharuskan y memiliki satuan jumlah kuadrat (ekuivalen, satuan varians); jika diperlukan, orang dapat berasumsi bahwa y memiliki satuan jumlah kuadrat juga:y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. Berapa batas β^∗λβ^λ∗\hat{\boldsymbol\beta}_\lambda^* ketika λ→∞λ→∞\lambda\to\infty ? Berikut adalah …

3
PCA saat dimensinya lebih besar dari jumlah sampel
Saya telah menemukan sebuah skenario di mana saya memiliki 10 sinyal / orang untuk 10 orang (jadi 100 sampel) berisi 14000 titik data (dimensi) yang harus saya sampaikan ke pengklasifikasi. Saya ingin mengurangi dimensi data ini dan PCA tampaknya menjadi cara untuk melakukannya. Namun, saya hanya dapat menemukan contoh PCA …

3
Korelasi aneh dalam hasil SVD dari data acak; apakah mereka memiliki penjelasan matematis atau apakah itu bug LAPACK?
Saya mengamati perilaku yang sangat aneh dalam hasil SVD dari data acak, yang dapat saya tiru di Matlab dan R. Sepertinya beberapa masalah numerik di perpustakaan LAPACK; Apakah itu? Saya menarik n=1000n=1000n=1000 sampel dari k=2k=2k=2 dimensi Gaussian dengan nol mean dan kovarian identitas: X∼N(0,I)X∼N(0,I)X\sim \mathcal N (0, \mathbf I) . …


2
PCA dalam numpy dan sklearn menghasilkan hasil yang berbeda
Apakah saya salah memahami sesuatu. Ini kode saya menggunakan sklearn import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) Keluaran: array([[ -4.25324997e+03, …

4
Bagaimana cara memproyeksikan vektor baru ke ruang PCA?
Setelah melakukan analisis komponen utama (PCA), saya ingin memproyeksikan vektor baru ke ruang PCA (yaitu menemukan koordinatnya dalam sistem koordinat PCA). Saya telah menghitung PCA dalam bahasa R menggunakan prcomp. Sekarang saya harus bisa mengalikan vektor saya dengan matriks rotasi PCA. Haruskah komponen utama dalam matriks ini disusun dalam baris …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

1
Apa "efek tapal kuda" dan / atau "efek lengkungan" dalam analisis PCA / korespondensi?
Ada banyak teknik dalam statistik ekologi untuk analisis data eksplorasi data multidimensi. Ini disebut teknik 'penahbisan'. Banyak yang sama atau terkait erat dengan teknik umum di tempat lain dalam statistik. Mungkin contoh prototipikal akan menjadi analisis komponen utama (PCA). Ahli ekologi mungkin menggunakan PCA, dan teknik terkait, untuk mengeksplorasi 'gradien' …

2
Apakah ada kelebihan SVD dibandingkan PCA?
Saya tahu cara menghitung PCA dan SVD secara matematis, dan saya tahu bahwa keduanya dapat diterapkan pada regresi Linear Least Squares. Keuntungan utama dari SVD secara matematis adalah dapat diterapkan pada matriks non-kuadrat. Kedua fokus pada dekomposisi dari matriks. Selain keunggulan SVD yang disebutkan, apakah ada keuntungan atau wawasan tambahan …
20 pca  least-squares  svd 



6
PCA data non-Gaussian
Saya punya beberapa pertanyaan singkat tentang PCA: Apakah PCA berasumsi bahwa dataset adalah Gaussian? Apa yang terjadi ketika saya menerapkan PCA ke data non-linear yang inheren? Diberikan dataset, prosesnya adalah untuk menormalkan rata-rata, mengatur varians ke 1, mengambil SVD, mengurangi peringkat, dan akhirnya memetakan dataset ke dalam ruang pengurangan peringkat …
20 pca  svd 

4
Apa nilai yang benar untuk presisi dan mengingat dalam kasus tepi?
Presisi didefinisikan sebagai: p = true positives / (true positives + false positives) Apakah benar bahwa, sebagai true positivesdan false positivespendekatan 0, presisi mendekati 1? Pertanyaan yang sama untuk diingat: r = true positives / (true positives + false negatives) Saat ini saya sedang menerapkan tes statistik di mana saya …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 


Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.