Ketika Anda diberi sebelumnya dan kemungkinan yang tidak dapat dihitung dalam bentuk tertutup atau sedemikian rupa sehingga distribusi posterior bukan tipe standar, mensimulasikan langsung dari target ini menuju perkiraan Monte Carlo dari distribusi posterior tidak layak. Contoh khas dibuat dari model hierarkis dengan prior non-konjugat, seperti yang ditemukan dalam buku BUGS .p(θ)f(x|θ)
p(θ|x)∝p(θ)f(x|θ)
Metode simulasi tidak langsung seperti teknik accept-reject, rasio-of-seragam, atau kepentingan-sampel biasanya mengalami kesulitan numerik dan presisi ketika dimensi parameter meningkat melampaui beberapa unit.θ
Sebaliknya, metode rantai Markov, Monte Carlo, lebih dapat digunakan untuk dimensi besar karena mereka dapat menjelajahi distribusi posterior berbasis lokal, yaitu di lingkungan nilai saat ini, dan pada sejumlah kecil komponen, yaitu pada subruang. Sebagai contoh, sampler Gibbs memvalidasi gagasan yang mensimulasikan dari target satu dimensi pada suatu waktu, yaitu distribusi bersyarat penuh yang terkait dengan , cukup untuk mencapai simulasi dari posterior sebenarnya dalam jangka panjang.p(θ|x)
Metode rantai Markov Monte Carlo juga beberapa tingkat universalitas dalam algoritma seperti algoritma Metropolis-Hastings secara resmi tersedia untuk setiap distribusi posterior yang dapat dihitung hingga konstanta.p(θ|x)
Dalam kasus ketika tidak dapat dengan mudah dihitung, ada alternatif, baik dengan melengkapi distribusi ini menjadi distribusi yang dapat dikelola di ruang yang lebih besar, seperti dalam atau melalui metode non-Markovian seperti ABC .p ( θ ) f ( x | θ ) ∝ ∫ g ( z | θ , x ) p ( θ ) f ( x | θ ) d zp(θ)f(x|θ)
p(θ)f(x|θ)∝∫g(z|θ,x)p(θ)f(x|θ)dz
Metode MCMC telah memberikan jangkauan yang lebih luas untuk metode Bayesian, seperti yang diilustrasikan oleh kenaikan yang mengikuti popularisasi metode oleh Alan Gelfand dan Adrian Smith pada tahun 1990.