Pertanyaan yang diberi tag «metropolis-hastings»

Jenis khusus dari algoritma Markov Chain Monte Carlo (MCMC) digunakan untuk mensimulasikan dari distribusi probabilitas yang kompleks. Ini divalidasi oleh teori rantai Markov dan menawarkan berbagai kemungkinan implementasi.

1
Apa perbedaan antara Metropolis Hastings, Gibbs, Pentingnya, dan sampel Penolakan?
Saya telah mencoba mempelajari metode MCMC dan telah menemukan Metropolis Hastings, Gibbs, Importance, dan Rejection sampling. Sementara beberapa perbedaan ini jelas, yaitu, bagaimana Gibbs adalah kasus khusus dari Metropolis Hastings ketika kita memiliki persyaratan penuh, yang lain kurang jelas, seperti ketika kita ingin menggunakan MH dalam sampler Gibbs, dll. Adakah …

1
Apa sajakah perbaikan terkenal atas algoritma MCMC buku teks yang digunakan orang untuk inferensi bayesian?
Ketika saya sedang mengkode simulasi Monte Carlo untuk beberapa masalah, dan modelnya cukup sederhana, saya menggunakan buku sampel Gibbs yang sangat dasar. Ketika tidak mungkin menggunakan sampling Gibbs, saya memberi kode pada buku teks Metropolis-Hastings yang telah saya pelajari bertahun-tahun yang lalu. Satu-satunya pemikiran yang saya berikan adalah memilih distribusi …

1
Bisakah MCMC adaptif dipercaya?
Saya membaca tentang MCMC adaptif (lihat misalnya, Bab 4 dari Handbook of Markov Chain Monte Carlo , ed. Brooks et al., 2011; dan juga Andrieu & Thoms, 2008 ). Hasil utama dari Roberts dan Rosenthal (2007) adalah bahwa jika skema adaptasi memenuhi kondisi adaptasi menghilang (ditambah beberapa teknis lainnya), MCMC …

2
Pengambilan sampel Gibbs versus MH-MCMC umum
Saya baru saja melakukan beberapa bacaan pada Gibbs sampling dan algoritma Metropolis Hastings dan punya beberapa pertanyaan. Seperti yang saya pahami, dalam kasus pengambilan sampel Gibbs, jika kita memiliki masalah multivariat yang besar, kita sampel dari distribusi bersyarat yaitu sampel satu variabel sambil menjaga semua yang lain tetap sedangkan di …

4
Algoritma Metropolis-Hastings digunakan dalam praktik
Saya membaca Blog Christian Robert hari ini dan cukup menyukai algoritma Metropolis-Hastings yang baru ia diskusikan. Tampaknya sederhana dan mudah diimplementasikan. Setiap kali saya membuat kode MCMC, saya cenderung tetap dengan algoritma MH yang sangat dasar, seperti gerakan independen atau jalan acak pada skala log. Algoritma MH apa yang digunakan …


1
Integrasi Metropolis-Hastings - mengapa strategi saya tidak berhasil?
Asumsikan saya memiliki fungsi g(x)g(x)g(x) yang ingin saya integrasikan ∫∞−∞g(x)dx.∫−∞∞g(x)dx. \int_{-\infty}^\infty g(x) dx. Tentu saja dengan asumsi g(x)g(x)g(x) menjadi nol pada titik akhir, tidak ada semburan, fungsi yang bagus. Salah satu cara yang saya telah mengutak-atik adalah dengan menggunakan algoritma Metropolis-Hastings untuk menghasilkan daftar sampel x1,x2,…,xnx1,x2,…,xnx_1, x_2, \dots, x_n dari …

1
Stan
Saya sedang membaca dokumentasi Stan yang dapat diunduh dari sini . Saya sangat tertarik dengan implementasi diagnostik Gelman-Rubin. Makalah asli Gelman & Rubin (1992) mendefinisikan faktor skala pengurangan potensial (PSRF) sebagai berikut: Biarkan menjadi rantai Markov ke- i sampel, dan biarkan ada rantai M independen keseluruhan sampel. Biarkan ˉ X …

2
Bingung dengan variasi MCMC Metropolis-Hastings: Random-Walk, Non-Random-Walk, Independent, Metropolis
Selama beberapa minggu terakhir saya telah mencoba memahami MCMC dan algoritma Metropolis-Hastings. Setiap kali saya pikir saya memahaminya, saya menyadari bahwa saya salah. Sebagian besar contoh kode yang saya temukan on-line mengimplementasikan sesuatu yang tidak konsisten dengan deskripsi. yaitu: Mereka mengatakan mereka menerapkan Metropolis-Hastings tetapi mereka benar-benar menerapkan metropolis berjalan …


1
Memahami Metropolis-Hastings dengan distribusi proposal asimetris
Saya telah mencoba memahami algoritma Metropolis-Hastings untuk menulis kode untuk memperkirakan parameter model (yaitu ). Menurut bibliografi, algoritma Metropolis-Hastings memiliki langkah-langkah berikut:f( x ) = a ∗ xf(x)=Sebuah∗xf(x)=a*x HasilkanYt∼ q( y| xt)Yt∼q(y|xt)Y_t \sim q(y|x^t) Xt + 1= { Yt,xt,dengan probabilitasρ ( xt, Yt) ,dengan probabilitas1 - ρ ( xt, Yt) …

1
Memahami algoritma MCMC dan Metropolis-Hastings
Selama beberapa hari terakhir saya telah mencoba memahami bagaimana Markov Chain Monte Carlo (MCMC) bekerja. Secara khusus saya telah mencoba memahami dan mengimplementasikan algoritma Metropolis-Hastings. Sejauh ini saya pikir saya memiliki pemahaman keseluruhan tentang algoritma tetapi ada beberapa hal yang belum jelas bagi saya. Saya ingin menggunakan MCMC agar sesuai …

1
MCMC dengan algoritma Metropolis-Hastings: Memilih proposal
Saya perlu melakukan simulasi untuk mengevaluasi integral dari fungsi 3 parameter, kita katakan , yang memiliki rumus yang sangat rumit. Diminta untuk menggunakan metode MCMC untuk menghitungnya dan mengimplementasikan algoritma Metropolis-Hastings untuk menghasilkan nilai yang didistribusikan sebagai f , dan disarankan untuk menggunakan 3 variasi normal sebagai distribusi proposal. Membaca …

1
R / mgcv: Mengapa produk tensor () dan ti () menghasilkan permukaan yang berbeda?
The mgcvpaket untuk Rmemiliki dua fungsi untuk pas interaksi produk tensor: te()dan ti(). Saya memahami pembagian kerja dasar antara keduanya (menyesuaikan interaksi non-linear vs menguraikan interaksi ini menjadi efek utama dan interaksi). Yang tidak saya mengerti adalah mengapa te(x1, x2)dan ti(x1) + ti(x2) + ti(x1, x2)mungkin menghasilkan (sedikit) hasil yang …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.