Saat ini saya sedang belajar model Bayesian hierarkis menggunakan JAGS dari R, dan juga pymc menggunakan Python ( "Metode Bayesian untuk Peretas" ).
Saya bisa mendapatkan intuisi dari posting ini : "Anda akan berakhir dengan tumpukan angka yang terlihat" seolah-olah "Anda entah bagaimana berhasil mengambil sampel independen dari distribusi rumit yang ingin Anda ketahui." Itu adalah sesuatu seperti saya dapat memberikan probabilitas bersyarat, maka saya dapat menghasilkan proses tanpa memori berdasarkan pada probabilitas bersyarat. Ketika saya menghasilkan proses yang cukup lama, maka probabilitas gabungan dapat menyatu. Dan kemudian saya bisa mengambil tumpukan angka di akhir urutan yang dihasilkan. Seperti halnya saya mengambil sampel independen dari distribusi sambungan yang rumit. Sebagai contoh, saya dapat membuat histogram dan dapat memperkirakan fungsi distribusi.
Maka masalah saya adalah, apakah saya perlu membuktikan apakah MCMC menyatu untuk model tertentu? Saya termotivasi untuk mengetahui hal ini karena saya sebelumnya belajar algoritma EM untuk GMM dan LDA (model grafis). Jika saya bisa menggunakan algoritma MCMC tanpa membuktikan apakah konvergen, maka dapat menghemat lebih banyak waktu daripada EM. Karena saya harus menghitung fungsi kemungkinan log yang diharapkan (harus menghitung probabilitas posterior), dan kemudian memaksimalkan kemungkinan log yang diharapkan. Ini tampaknya lebih rumit daripada MCMC (saya hanya perlu merumuskan probabilitas bersyarat).
Saya juga bertanya-tanya apakah fungsi kemungkinan dan distribusi sebelumnya adalah konjugat. Apakah itu berarti bahwa MCMC harus bertemu? Saya bertanya-tanya tentang batasan MCMC dan EM.