Pertanyaan yang diberi tag «matrix-inverse»


1
Perhitungan invers matriks yang efisien dalam R
Saya perlu menghitung invers matriks dan telah menggunakan solvefungsi. Meskipun bekerja dengan baik pada matriks kecil, solvecenderung sangat lambat pada matriks besar. Saya bertanya-tanya apakah ada fungsi lain atau kombinasi fungsi (melalui SVD, QR, LU, atau fungsi dekomposisi lainnya) yang dapat memberi saya hasil lebih cepat.

1
Jelaskan bagaimana `eigen` membantu membalik matriks
Pertanyaan saya berkaitan dengan teknik perhitungan yang dieksploitasi di geoR:::.negloglik.GRFatau geoR:::solve.geoR. Dalam pengaturan model campuran linier: mana dan masing-masing adalah efek tetap dan acak. Juga,Y= Xβ+ Zb + eY=Xβ+Zb+e Y=X\beta+Zb+e ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Ketika memperkirakan efek, ada kebutuhan untuk menghitung yang biasanya dapat dilakukan menggunakan sesuatu seperti , tetapi kadang-kadang hampir tidak …


1
Apa yang harus dilakukan ketika sampel matriks kovarians tidak dapat dibalik?
Saya sedang mengerjakan beberapa teknik pengelompokan, di mana untuk kluster vektor d-dimensi yang diberikan, saya mengasumsikan distribusi normal multivariat dan menghitung sampel vektor rata-rata d-dimensi dan matriks kovarian sampel. Kemudian ketika mencoba untuk memutuskan apakah baru, tak terlihat, d-dimensi vektor milik klaster ini saya memeriksa jarak melalui ukuran ini: (Xi−μ^X)′σ^−1X(Xi−μ^X)>B0.95(p2,−p2)(Xi−μ^X)′σ^X−1(Xi−μ^X)>B0.95(p2,-hal2)\left(X_i-\hat{\mu}_X\right)'\hat{\sigma}_X^{-1}\left(X_i-\hat{\mu}_X\right)>B_{0.95}\left(\frac{p}{2},\frac{-p}{2}\right) …

1
R / mgcv: Mengapa produk tensor () dan ti () menghasilkan permukaan yang berbeda?
The mgcvpaket untuk Rmemiliki dua fungsi untuk pas interaksi produk tensor: te()dan ti(). Saya memahami pembagian kerja dasar antara keduanya (menyesuaikan interaksi non-linear vs menguraikan interaksi ini menjadi efek utama dan interaksi). Yang tidak saya mengerti adalah mengapa te(x1, x2)dan ti(x1) + ti(x2) + ti(x1, x2)mungkin menghasilkan (sedikit) hasil yang …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


1
Perhitungan / estimasi cepat sistem linear peringkat rendah
Sistem persamaan linear sangat luas dalam statistik komputasi. Satu sistem khusus yang saya temui (misalnya, dalam analisis faktor) adalah sistem Ax=bAx=bAx=b di mana Di sini adalah matriks diagonal dengan diagonal yang benar-benar positif, adalah (dengan ) matriks semi-pasti positif simetris positif, dan adalah matriks sembarang . Kami diminta untuk memecahkan …

2
Penjelasan gamblang untuk “stabilitas numerik inversi matriks” dalam regresi ridge dan perannya dalam mengurangi overfit
Saya mengerti bahwa kita dapat menggunakan regularisasi dalam masalah regresi kuadrat terkecil sebagai w∗= argminw[ ( Y - X w )T( y - X w ) + λ ∥ w ∥2]w∗=argminw⁡[(y−Xw)T(y−Xw)+λ‖w‖2]\boldsymbol{w}^* = \operatorname*{argmin}_w \left[ (\mathbf y-\mathbf{Xw})^T(\boldsymbol{y}-\mathbf{Xw}) + \lambda\|\boldsymbol{w}\|^2 \right] dan bahwa masalah ini memiliki solusi bentuk tertutup seperti: w^= ( …

1
Apa signifikansi fisik dari kebalikan dari matriks? [Tutup]
Ditutup . Pertanyaan ini perlu lebih fokus . Saat ini tidak menerima jawaban. Ingin meningkatkan pertanyaan ini? Perbarui pertanyaan sehingga berfokus pada satu masalah hanya dengan mengedit posting ini . Ditutup 3 tahun yang lalu . Saya ditanya pertanyaan ini dalam sebuah wawancara. Meskipun saya mencoba yang terbaik untuk menjawab …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.