Pertanyaan yang diberi tag «svd»

Dekomposisi nilai singular (SVD) dari sebuah matriks diberikan oleh mana dan adalah matriks ortogonal dan adalah matriks diagonal. AA=USVUVS

2
Mengapa saya tidak bisa mendapatkan SVD X yang valid melalui dekomposisi nilai eigen dari XX 'dan X'X?
Saya mencoba melakukan SVD dengan tangan: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Tetapi baris terakhir tidak mkembali. Mengapa? Tampaknya ada hubungannya dengan tanda-tanda vektor eigen ini ... Atau apakah saya salah memahami prosedur?
9 r  svd  eigenvalues 

1
Memahami Dekomposisi Nilai Singular dalam konteks LSI
Pertanyaan saya umumnya pada Dekomposisi Nilai Singular (SVD), dan khususnya tentang Latent Semantic Indexing (LSI). Katakanlah, saya memiliki yang berisi frekuensi 5 kata untuk 7 dokumen.SEBUAHw o r d× do c u m e n tAword×document A_{word \times document} A = matrix(data=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, 0,10,0,0,7,0,0), ncol=7, byrow=TRUE) rownames(A) <- …

1
Parellel antara LSA dan pLSA
Dalam makalah asli pLSA penulis, Thomas Hoffman, menggambar paralel antara struktur data pLSA dan LSA yang ingin saya diskusikan dengan Anda. Latar Belakang: Mengambil inspirasi Pengambilan Informasi misalkan kita memiliki koleksi dokumen dan kosakata istilahNNND={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbraceMMMΩ={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega = \lbrace \omega_1, \omega_2, ..., \omega_M \rbrace Sebuah …


1
Bagaimana menafsirkan hasil reduksi dimensi / penskalaan multidimensi?
Saya melakukan dekomposisi SVD dan penskalaan multidimensi dari matriks data 6 dimensi, untuk mendapatkan pemahaman yang lebih baik tentang struktur data. Sayangnya, semua nilai singular memiliki urutan yang sama, menyiratkan bahwa dimensi data memang 6.. Namun, saya ingin dapat menafsirkan nilai-nilai vektor singular. Misalnya, yang pertama tampaknya kurang lebih sama …

2
SVD dari matriks data setelah proyeksi ortogonal ke subruang
Katakanlah saya dapat mengetahui SVD dari beberapa matriks : X = USV ^ TXXXX=USVTX=USVTX = USV^T Jika saya memiliki matriks ortogonal AAA (yaitu, AAA adalah persegi dan memiliki kolom ortonormal), maka SVD XAXAXA adalah XA=USWTXA=USWTXA = USW^T mana W=ATVW=ATVW = A^TV . Tetapi dapatkah dikatakan tentang SVD XBXBXB jika BBB …

3
Bagaimana melakukan SVD untuk memasukkan nilai yang hilang, contoh konkret
Saya telah membaca komentar yang bagus mengenai bagaimana menangani nilai yang hilang sebelum menerapkan SVD, tetapi saya ingin tahu cara kerjanya dengan contoh sederhana: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Mengingat matriks di atas, jika saya …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

1
SVD dari matriks data (PCA) setelah dihaluskan
Katakanlah saya memiliki matriks data terpusat dengan SVD .n×mn×mn \times mAAAA=UΣVTA=UΣVTA = U \Sigma V^{T} Misalnya, kolom (pengukuran) yang spektra dengan frekuensi yang berbeda. Matriks dipusatkan sehingga baris-baris matriks dikurangi rata-ratanya. Ini untuk menafsirkan vektor singular kiri sebagai komponen utama.m=50m=50m=50n=100n=100n=100 Saya tertarik memahami bagaimana perubahan SVD ketika saya memuluskan setiap …
8 pca  smoothing  svd 
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.