Kapan MCMC berguna?


12

Saya mengalami kesulitan dalam memahami situasi di mana pendekatan MCMC sebenarnya berguna. Saya akan melalui contoh mainan dari buku Kruschke "Melakukan Analisis Data Bayesian: Tutorial dengan R dan BUGS".

Apa yang saya pahami sejauh ini adalah bahwa kita memerlukan target distribusi yang proporsional dengan untuk memiliki sampel . Namun, bagi saya, sekali kita memiliki kita hanya perlu menormalkan distribusi untuk mendapatkan posterior, dan faktor normalisasi dapat dengan mudah ditemukan secara numerik. Jadi apa kasusnya saat ini tidak memungkinkan?P ( θ | D ) p ( D | θ ) p ( θ )p(D|θ)p(θ)P(θ|D)p(D|θ)p(θ)


2
Misalkan bukan skalar melainkan vektor \ boldsymbol \ theta yang memiliki dimensi 10.000. θθθ
Jan Galkowski

1
Jawaban saya agak singkat. Untuk mendapatkan konstanta, perlu menghitung p(D|θ)p(θ) . Bahkan dalam kasus skalar, misalkan p(D|θ) benar-benar miring sehingga integrasi sulit dilakukan, bahkan secara numerik. Maka Anda mungkin ingin menggunakan MCMC.
Jan Galkowski

2
Sebuah peringatan dari Alan Sokal: "Monte Carlo adalah metode yang sangat buruk; itu harus digunakan hanya ketika semua metode alternatif adalah yang terburuk". Kemudian dia memulai diskusi panjang tentang metode MC. stat.unc.edu/faculty/cji/Sokal.pdf
Yair Daon

1
@ Yair: Kedengarannya seperti Sokal menyalurkan Churchill.
kardinal

1
Ketika tidak ada lagi yang akan berhasil ...
kjetil b halvorsen

Jawaban:


10

Integrasi Monte Carlo adalah salah satu bentuk integrasi numerik yang dapat jauh lebih efisien daripada, misalnya, integrasi numerik dengan mendekati integrand dengan polinomial. Ini terutama benar dalam dimensi tinggi, di mana teknik integrasi numerik sederhana memerlukan evaluasi fungsi dalam jumlah besar. Untuk menghitung konstanta normalisasi , kita dapat menggunakan sampel penting ,p(D)

p(D)=q(θ)q(θ)p(θ)p(Dθ)dθ1Nnwnp(θn)p(Dθn),

di mana dan disampel dari . Perhatikan bahwa kita hanya perlu mengevaluasi distribusi bersama pada titik sampel. Untuk tepat , penaksir ini bisa sangat efisien dalam arti membutuhkan sangat sedikit sampel. Dalam praktiknya, memilih tepat bisa sulit, tetapi di sinilah MCMC dapat membantu! Anil pentingnya sampel (Neal, 1998) menggabungkan MCMC dengan sampel pentingθ n q q qwn=1/q(θn)θnqqq

Alasan lain mengapa MCMC berguna adalah ini: Kami biasanya bahkan tidak tertarik pada kepadatan posterior , tetapi lebih pada ringkasan statistik dan harapan , misalnya,θ

p(θD)f(θ)dθ.

Mengetahui secara umum tidak berarti kita dapat menyelesaikan integral ini, tetapi sampel adalah cara yang sangat mudah untuk memperkirakannya.p(D)

Akhirnya, mampu mengevaluasi adalah persyaratan untuk beberapa metode MCMC, tetapi tidak semuanya (misalnya, Murray et al., 2006 ).p(Dθ)p(θ)


Maaf, tapi ini masih belum jelas bagi saya. Pertanyaan saya adalah: jika kita hanya mengalikan kita memperoleh pdf yang tidak normal. Dengan menjalankan MCMC kami mendapatkan sampel yang kami bisa perkirakan pdf yang tidak dinormalkan. Jika kita mau, kita bisa menormalkan keduanya. Jadi, MENANGGUNG Saya TIDAK tertarik pada statistik ringkasan apa pun, tetapi hanya di bagian luar, mengapa kami menggunakan MCMC sejak awal? Seperti yang Anda katakan, beberapa metode MCMC tidak memerlukan perhitungan , jadi saya tidak mengacu pada itu. Sejauh yang saya tahu, kebanyakan dari mereka memerlukan perhitungan itu. Apa kegunaan metode ini? p(D|θ)p(θ)p(D|θ)p(θ)
Vaaal

2
Saat menjalankan MCMC, Anda mendapatkan sampel dari pdf yang dinormalisasi, jadi hindari menghitung konstanta normalisasi. Dan ini gratis.
Xi'an

2
@Vaaal: Asumsi Anda bahwa "faktor normalisasi dapat dengan mudah ditemukan secara numerik" hanya berlaku untuk distribusi univariat sederhana. Untuk dimensi tinggi , normalisasi secara umum sangat sulit. Dalam hal ini, MCMC masih dapat digunakan untuk memperkirakan konstanta normalisasi (misalnya melalui annealed importance sampling). θp(Dθ)p(θ)
Lucas

6

Ketika Anda diberi sebelumnya dan kemungkinan yang tidak dapat dihitung dalam bentuk tertutup atau sedemikian rupa sehingga distribusi posterior bukan tipe standar, mensimulasikan langsung dari target ini menuju perkiraan Monte Carlo dari distribusi posterior tidak layak. Contoh khas dibuat dari model hierarkis dengan prior non-konjugat, seperti yang ditemukan dalam buku BUGS .p(θ)f(x|θ)

p(θ|x)p(θ)f(x|θ)

Metode simulasi tidak langsung seperti teknik accept-reject, rasio-of-seragam, atau kepentingan-sampel biasanya mengalami kesulitan numerik dan presisi ketika dimensi parameter meningkat melampaui beberapa unit.θ

Sebaliknya, metode rantai Markov, Monte Carlo, lebih dapat digunakan untuk dimensi besar karena mereka dapat menjelajahi distribusi posterior berbasis lokal, yaitu di lingkungan nilai saat ini, dan pada sejumlah kecil komponen, yaitu pada subruang. Sebagai contoh, sampler Gibbs memvalidasi gagasan yang mensimulasikan dari target satu dimensi pada suatu waktu, yaitu distribusi bersyarat penuh yang terkait dengan , cukup untuk mencapai simulasi dari posterior sebenarnya dalam jangka panjang.p(θ|x)

Metode rantai Markov Monte Carlo juga beberapa tingkat universalitas dalam algoritma seperti algoritma Metropolis-Hastings secara resmi tersedia untuk setiap distribusi posterior yang dapat dihitung hingga konstanta.p(θ|x)

Dalam kasus ketika tidak dapat dengan mudah dihitung, ada alternatif, baik dengan melengkapi distribusi ini menjadi distribusi yang dapat dikelola di ruang yang lebih besar, seperti dalam atau melalui metode non-Markovian seperti ABC .p ( θ ) f ( x | θ ) g ( z | θ , x ) p ( θ ) f ( x | θ ) d zp(θ)f(x|θ)

p(θ)f(x|θ)g(z|θ,x)p(θ)f(x|θ)dz

Metode MCMC telah memberikan jangkauan yang lebih luas untuk metode Bayesian, seperti yang diilustrasikan oleh kenaikan yang mengikuti popularisasi metode oleh Alan Gelfand dan Adrian Smith pada tahun 1990.


Tautan ke THE BUGS BOOK tidak berfungsi lagi.
HelloWorld
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.