Pertanyaan yang diberi tag «matrix-decomposition»

Dekomposisi matriks mengacu pada proses memfaktorkan matriks menjadi produk dari matriks yang lebih kecil. Dengan menguraikan matriks yang besar, seseorang dapat secara efisien melakukan banyak algoritma matriks.

1
Pengurangan dimensi (SVD atau PCA) pada matriks besar dan jarang
/ edit: Tindak lanjut lebih lanjut sekarang Anda dapat menggunakan irlba :: prcomp_irlba / edit: menindaklanjuti posting saya sendiri. irlbasekarang memiliki argumen "pusat" dan "skala", yang memungkinkan Anda menggunakannya untuk menghitung komponen prinsip, misalnya: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Saya memiliki banyak Matrixfitur yang ingin saya …

1
Norma apa dari kesalahan rekonstruksi yang diminimalkan oleh matriks aproksimasi peringkat rendah yang diperoleh dengan PCA?
Mengingat PCA (atau SVD) pendekatan matriks XXX dengan matriks X , kita tahu bahwa X adalah yang terbaik peringkat rendah perkiraan X .X^X^\hat XX^X^\hat XXXX Apakah ini sesuai dengan norma ∥ ⋅ ∥ 2 yang diinduksi∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (yaitu norma nilai eigen terbesar) atau menurut norma Frobenius ∥ ⋅ ∥F∥⋅∥F\parallel …

2
Mengapa PCA data menggunakan SVD data?
Pertanyaan ini adalah tentang cara yang efisien untuk menghitung komponen utama. Banyak teks tentang advokasi PCA linier menggunakan dekomposisi nilai singular dari data dengan santai . Yaitu, jika kita memiliki data dan ingin mengganti variabel ( kolomnya ) dengan komponen utama, kita lakukan SVD: , nilai singular (akar kuadrat dari …

1
Perhitungan invers matriks yang efisien dalam R
Saya perlu menghitung invers matriks dan telah menggunakan solvefungsi. Meskipun bekerja dengan baik pada matriks kecil, solvecenderung sangat lambat pada matriks besar. Saya bertanya-tanya apakah ada fungsi lain atau kombinasi fungsi (melalui SVD, QR, LU, atau fungsi dekomposisi lainnya) yang dapat memberi saya hasil lebih cepat.

5
Makalah penting tentang dekomposisi matriks
Baru-baru ini saya membaca buku Skillicorn tentang dekomposisi matriks, dan sedikit kecewa, karena ditargetkan untuk audiens sarjana. Saya ingin mengkompilasi (untuk saya dan orang lain) bibliografi singkat dari makalah penting (survei, tetapi juga makalah terobosan) pada dekomposisi matriks. Apa yang ada dalam pikiran saya terutama adalah sesuatu pada SVD / …

1
Memperbarui dekomposisi SVD setelah menambahkan satu baris baru ke matriks
Misalkan saya memiliki matriks padat AA \textbf{A} dari m×nm×nm \times n ukuran, dengan SVD dekomposisiDalam Aku dapat menghitung SVD sebagai berikut: .A=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Jika baris baru ditambahkan ke , dapatkah seseorang menghitung dekomposisi SVD baru berdasarkan yang lama (yaitu dengan menggunakan , , dan ), tanpa menghitung ulang SVD dari awal?A …


2
Bagaimana cara memplot elips dari nilai eigen dan vektor eigen di R? [Tutup]
Tutup. Pertanyaan ini di luar topik . Saat ini tidak menerima jawaban. Ingin meningkatkan pertanyaan ini? Perbarui pertanyaan sehingga sesuai topik untuk Cross Validated. Ditutup 2 tahun yang lalu . Dapatkah seseorang membuat kode R untuk memplot elips dari nilai eigen dan vektor eigen dari matriks berikut A=(2.20.40.42.8)A=(2.20.40.42.8) \mathbf{A} = …

3
Bagaimana memilih jumlah optimal faktor laten dalam faktorisasi matriks non-negatif?
Dengan matriks , Factorisasi Matriks Non-negatif (NMF) menemukan dua matriks non-negatif dan ( yaitu dengan semua elemen ) untuk mewakili matriks yang diuraikan sebagai:Vm×nVm×n\mathbf V^{m \times n}Wm×kWm×k\mathbf W^{m \times k}Hk×nHk×n\mathbf H^{k \times n}≥0≥0\ge 0 V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, misalnya dengan mensyaratkan bahwa dan yang non-negatif meminimalkan kesalahan rekonstruksiWW\mathbf …

1
Canggih dalam Penyaringan Kolaboratif
Saya sedang mengerjakan proyek untuk filtering kolaboratif (CF), yaitu menyelesaikan matriks yang diamati sebagian atau secara umum tensor. Saya seorang pemula di lapangan, dan untuk proyek ini akhirnya saya harus membandingkan metode kami dengan yang terkenal lainnya yang saat ini, metode yang diusulkan dibandingkan dengan mereka, yaitu state-of-the-art di CF. …

1
Jelaskan bagaimana `eigen` membantu membalik matriks
Pertanyaan saya berkaitan dengan teknik perhitungan yang dieksploitasi di geoR:::.negloglik.GRFatau geoR:::solve.geoR. Dalam pengaturan model campuran linier: mana dan masing-masing adalah efek tetap dan acak. Juga,Y= Xβ+ Zb + eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Ketika memperkirakan efek, ada kebutuhan untuk menghitung yang biasanya dapat dilakukan menggunakan sesuatu seperti , tetapi kadang-kadang hampir tidak …

1
Mengapa non-negatif penting untuk sistem penyaringan / rekomendasi kolaboratif?
Dalam semua sistem rekomendasi modern yang telah saya lihat yang mengandalkan faktorisasi matriks, faktorisasi matriks non-negatif dilakukan pada matriks pengguna-film. Saya bisa mengerti mengapa non-negatif itu penting untuk interpretabilitas dan / atau jika Anda ingin faktor jarang. Tetapi jika Anda hanya peduli dengan kinerja prediksi, seperti dalam kompetisi hadiah Netflix …

1
R / mgcv: Mengapa produk tensor () dan ti () menghasilkan permukaan yang berbeda?
The mgcvpaket untuk Rmemiliki dua fungsi untuk pas interaksi produk tensor: te()dan ti(). Saya memahami pembagian kerja dasar antara keduanya (menyesuaikan interaksi non-linear vs menguraikan interaksi ini menjadi efek utama dan interaksi). Yang tidak saya mengerti adalah mengapa te(x1, x2)dan ti(x1) + ti(x2) + ti(x1, x2)mungkin menghasilkan (sedikit) hasil yang …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
Perhitungan / estimasi cepat sistem linear peringkat rendah
Sistem persamaan linear sangat luas dalam statistik komputasi. Satu sistem khusus yang saya temui (misalnya, dalam analisis faktor) adalah sistem Ax=bAx=bAx=b di mana Di sini adalah matriks diagonal dengan diagonal yang benar-benar positif, adalah (dengan ) matriks semi-pasti positif simetris positif, dan adalah matriks sembarang . Kami diminta untuk memecahkan …

2
Penyaringan kolaboratif melalui faktorisasi matriks dengan fungsi kehilangan logistik
Pertimbangkan masalah pemfilteran kolaboratif. Kami memiliki matriks ukuran #user * # item. jika pengguna saya suka barang j, jika pengguna saya tidak suka barang j danjika tidak ada data tentang pasangan (i, j). Kami ingin memprediksi untuk pengguna mendatang, pasangan barang.M.M.MM.saya , j= 1M.saya,j=1M_{i,j} = 1M.saya , j= 0M.saya,j=0M_{i,j} = …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.