Pertanyaan yang diberi tag «linear-algebra»

Bidang matematika yang berkaitan dengan studi ruang vektor dimensi terbatas, termasuk matriks dan manipulasi mereka, yang penting dalam statistik.

9
Kenapa tiba-tiba terpesona dengan tensor?
Saya perhatikan akhir-akhir ini bahwa banyak orang sedang mengembangkan tensor ekivalen dari banyak metode (faktorisasi tensor, kernel tensor, tensor untuk pemodelan topik, dll) Saya bertanya-tanya, mengapa dunia tiba-tiba terpesona dengan tensor? Apakah ada makalah baru / hasil standar yang sangat mengejutkan, yang menyebabkan ini? Apakah komputasi jauh lebih murah daripada …


5
Apa penjelasan intuitif untuk bagaimana PCA berubah dari masalah geometris (dengan jarak) ke masalah aljabar linier (dengan vektor eigen)?
Saya sudah membaca banyak tentang PCA, termasuk berbagai tutorial dan pertanyaan (seperti yang ini , yang ini , yang ini , dan yang ini ). Masalah geometris yang PCA coba optimalkan jelas bagi saya: PCA mencoba menemukan komponen utama pertama dengan meminimalkan kesalahan rekonstruksi (proyeksi), yang secara bersamaan memaksimalkan varians …

3
Apa intuisi di balik SVD?
Saya telah membaca tentang dekomposisi nilai singular (SVD). Di hampir semua buku teks disebutkan bahwa itu faktorisasi matriks menjadi tiga matriks dengan spesifikasi yang diberikan. Tapi apa intuisi di balik pemisahan matriks dalam bentuk seperti itu? PCA dan algoritma lain untuk pengurangan dimensi adalah intuitif dalam arti bahwa algoritma memiliki …



3
Mengapa matriks kovarians sampel tunggal ketika ukuran sampel kurang dari jumlah variabel?
Katakanlah saya memiliki distribusi Gaussian multivariat dimensional. Dan saya mengambil pengamatan (masing-masing satu -vector) dari distribusi ini dan menghitung sampel kovarians matriks . Dalam hal ini kertas , negara penulis bahwa matriks kovarians sampel dihitung dengan adalah tunggal.halhalpnnnhalhalpSSSp > nhal>np > n Bagaimana itu benar atau diturunkan? Ada penjelasan?


3
Distribusi produk skalar dari dua vektor satuan acak dalam dimensi
Jika dan adalah dua vektor satuan acak independen di (didistribusikan secara seragam pada unit sphere), apa distribusi produk skalar mereka (produk titik) ?y R D x ⋅ yxx\mathbf{x}yy\mathbf{y}RDRD\mathbb{R}^Dx⋅yx⋅y\mathbf x \cdot \mathbf y Saya kira ketika menumbuhkan distribusi dengan cepat (?) Menjadi normal dengan rata-rata nol dan penurunan varians dalam dimensi …

3
Korelasi aneh dalam hasil SVD dari data acak; apakah mereka memiliki penjelasan matematis atau apakah itu bug LAPACK?
Saya mengamati perilaku yang sangat aneh dalam hasil SVD dari data acak, yang dapat saya tiru di Matlab dan R. Sepertinya beberapa masalah numerik di perpustakaan LAPACK; Apakah itu? Saya menarik n=1000n=1000n=1000 sampel dari k=2k=2k=2 dimensi Gaussian dengan nol mean dan kovarian identitas: X∼N(0,I)X∼N(0,I)X\sim \mathcal N (0, \mathbf I) . …

7
Mengapa matriks simetris positif pasti (SPD) begitu penting?
Saya tahu definisi matriks positif simetris positif (SPD), tetapi ingin lebih memahami. Mengapa mereka begitu penting, secara intuitif? Inilah yang saya tahu. Apa lagi? Untuk data yang diberikan, matriks Co-variance adalah SPD. Matriks co-variance adalah metrik penting, lihat posting yang luar biasa ini untuk penjelasan intuitif. Bentuk kuadrat 12x⊤Ax−b⊤x+c12x⊤SEBUAHx-b⊤x+c\frac 1 …

1
Pemahaman geometris PCA dalam ruang subjek (ganda)
Saya mencoba untuk mendapatkan pemahaman intuitif tentang bagaimana analisis komponen utama (PCA) bekerja di ruang subjek (ganda) . Pertimbangkan dataset 2D dengan dua variabel, dan , dan titik data (matriks data adalah dan dianggap berpusat). Presentasi PCA yang umum adalah bahwa kami mempertimbangkan poin dalam , tulis matriks kovarian , …

1
Bagaimana cara memutihkan data menggunakan analisis komponen utama?
Saya ingin mengubah data saya sehingga varians akan menjadi satu dan kovariansi akan menjadi nol (yaitu saya ingin memutihkan datanya). Lebih jauh lagi, berarti harus nol.XX\mathbf X Saya tahu saya akan sampai di sana dengan melakukan standardisasi-Z dan transformasi PCA, tetapi dalam urutan apa saya harus melakukannya? Saya harus menambahkan …

2
Mengapa matriks Fisher Information semidefinite positif?
Biarkan . Matriks Informasi Fisher didefinisikan sebagai:θ ∈ Rnθ∈Rn\theta \in R^{n} saya( θ )saya , j= - E[ ∂2catatan( f( X| θ))∂θsaya∂θj∣∣∣θ ]I(θ)i,j=−E[∂2log⁡(f(X|θ))∂θi∂θj|θ]I(\theta)_{i,j} = -E\left[\frac{\partial^{2} \log(f(X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right] Bagaimana saya bisa membuktikan Matriks Informasi Fisher adalah semidefinit positif?

1
Posterior normal multivarian
Ini adalah pertanyaan yang sangat sederhana tetapi saya tidak dapat menemukan derivasi di mana pun di internet atau dalam buku. Saya ingin melihat derivasi bagaimana seseorang Bayesian memperbarui distribusi normal multivariat. Sebagai contoh: bayangkan itu P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf μ},{\bf Σ}) & = & N({\bf \mu}, {\bf \Sigma}) \\ \mathbb{P}({\bf …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.