Pertanyaan yang diberi tag «svd»

Dekomposisi nilai singular (SVD) dari sebuah matriks diberikan oleh mana dan adalah matriks ortogonal dan adalah matriks diagonal. AA=USVUVS

3
Komposisi Cholesky versus eigend untuk menggambar sampel dari distribusi normal multivariat
Saya ingin menggambar sampel . Wikipedia menyarankan untuk menggunakan komposisi Cholesky atau Eigend , yaitu atau x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ = QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Dan karenanya sampel dapat diambil melalui: atau mana x =D1vx=D1v \mathbf{x} = \mathbf{D}_1 \mathbf{v} x = Q Λ--√vx=QΛv \mathbf{x} = …

2
Kapan kita menggabungkan reduksi dimensi dengan pengelompokan?
Saya mencoba melakukan pengelompokan tingkat dokumen. Saya membangun matriks frekuensi istilah-dokumen dan saya mencoba mengelompokkan vektor-vektor dimensi tinggi ini menggunakan k-means. Alih-alih langsung mengelompokkan, apa yang saya lakukan adalah pertama-tama menerapkan dekomposisi vektor singular LSA (Latent Semantic Analysis) untuk mendapatkan matriks U, S, Vt, memilih ambang yang sesuai menggunakan plot …


1
Apakah GSVD menerapkan semua teknik multivarian linear?
Saya menemukan artikel oleh Hervé Abdi tentang SVD umum. Penulis menyebutkan: SVD umum (GSVD) menguraikan matriks persegi panjang dan memperhitungkan kendala akun yang dikenakan pada baris dan kolom matriks. GSVD memberikan estimasi kuadrat terkecil umum dari matriks yang diberikan oleh matriks peringkat yang lebih rendah dan karenanya, dengan pilihan kendala …


3
Algoritma cepat apa yang ada untuk komputasi SVD terpotong?
Mungkin di luar topik di sini, tetapi sudah ada beberapa ( satu , dua ) pertanyaan terkait. Mengaduk-aduk dalam literatur (atau pencarian google untuk Algoritma SVD Terpotong) muncul banyak makalah yang menggunakan SVD terpotong dalam berbagai cara, dan klaim (frustasi, sering tanpa kutipan) bahwa ada algoritma cepat untuk menghitungnya, tetapi …


1
Mengapa dekomposisi eigen dan svd dari matriks kovarians didasarkan pada data yang jarang menghasilkan hasil yang berbeda?
Saya mencoba untuk menguraikan matriks kovarians berdasarkan pada set data yang jarang / gappy. Saya memperhatikan bahwa jumlah lambda (dijelaskan varians), sebagaimana dihitung dengan svd, sedang diperkuat dengan data yang semakin gappy. Tanpa celah, svddan eigenhasil yang sama. Ini sepertinya tidak terjadi dengan eigendekomposisi. Saya telah condong ke arah penggunaan …
12 r  svd  eigenvalues 

3
SVD dari matriks dengan nilai yang hilang
Misalkan saya memiliki matriks rekomendasi gaya Netflix, dan saya ingin membangun model yang memprediksi peringkat film masa depan yang potensial untuk pengguna tertentu. Menggunakan pendekatan Simon Funk, orang akan menggunakan keturunan gradien stokastik untuk meminimalkan norma Frobenius antara matriks penuh dan item-by-item * pengguna-oleh-pengguna matriks dikombinasikan dengan istilah regularisasi L2. …

1
Perbedaan antara implementasi scikit-learn PCA dan TruncatedSVD
Saya memahami hubungan antara Analisis Komponen Utama dan Dekomposisi Nilai Singular pada tingkat aljabar / eksak. Pertanyaan saya adalah tentang implementasi scikit-learning . Dokumentasi mengatakan: " [TruncatedSVD] sangat mirip dengan PCA, tetapi beroperasi pada vektor sampel secara langsung, bukan pada matriks kovarians. ", Yang akan mencerminkan perbedaan aljabar antara kedua …
12 pca  scikit-learn  svd  scipy 

1
Cara menggambar plot scree dengan python? [Tutup]
Tutup. Pertanyaan ini di luar topik . Saat ini tidak menerima jawaban. Ingin meningkatkan pertanyaan ini? Perbarui pertanyaan sehingga sesuai topik untuk Cross Validated. Ditutup tahun lalu . Saya menggunakan dekomposisi vektor singular pada sebuah matriks dan mendapatkan matriks U, S dan Vt. Pada titik ini, saya mencoba untuk memilih …

1
Mengapa non-negatif penting untuk sistem penyaringan / rekomendasi kolaboratif?
Dalam semua sistem rekomendasi modern yang telah saya lihat yang mengandalkan faktorisasi matriks, faktorisasi matriks non-negatif dilakukan pada matriks pengguna-film. Saya bisa mengerti mengapa non-negatif itu penting untuk interpretabilitas dan / atau jika Anda ingin faktor jarang. Tetapi jika Anda hanya peduli dengan kinerja prediksi, seperti dalam kompetisi hadiah Netflix …

1
Apa pro dan kontra dari penerapan informasi timbal balik secara langsung pada matriks kata cooccurrence sebelum SVD?
Salah satu cara untuk menghasilkan embeddings kata adalah sebagai berikut ( mirror ): Dapatkan kopral, misalnya "Saya menikmati terbang. Saya suka NLP. Saya suka belajar dalam-dalam." Bangun kata cooccurrence matrix dari itu: Lakukan SVD pada , dan pertahankan kolom pertama U.XXXkkk Setiap baris submatrix akan menjadi kata embedding dari kata …

3
K-means pada persamaan cosinus vs. Euclidean distance (LSA)
Saya menggunakan analisis semantik laten untuk mewakili kumpulan dokumen di ruang dimensi yang lebih rendah. Saya ingin mengelompokkan dokumen-dokumen ini menjadi dua kelompok menggunakan k-means. Beberapa tahun yang lalu, saya melakukan ini menggunakan gensim Python dan menulis algoritma k-means saya sendiri. Saya menentukan cluster centroid menggunakan jarak Euclidean, tetapi kemudian …

1
Nilai variabel tersembunyi regresi linear R "bernilai"
Ini hanya contoh yang saya temui beberapa kali, jadi saya tidak punya data sampel. Menjalankan model regresi linier di R: a.lm = lm(Y ~ x1 + x2) x1adalah variabel kontinu. x2bersifat kategorikal dan memiliki tiga nilai, mis. "Rendah", "Sedang" dan "Tinggi". Namun output yang diberikan oleh R akan menjadi seperti: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.