Kapan saya harus khawatir tentang paradoks Jeffreys-Lindley dalam pilihan model Bayesian?


12

Saya sedang mempertimbangkan ruang besar (tetapi terbatas) model kompleksitas yang berbeda yang saya jelajahi menggunakan RJMCMC . Sebelumnya pada vektor parameter untuk setiap model cukup informatif.

  1. Dalam kasus apa (jika ada) yang harus saya khawatirkan dengan paradoks Jeffreys-Lindley yang mendukung model yang lebih sederhana ketika salah satu model yang lebih kompleks akan lebih cocok?

  2. Adakah contoh sederhana yang menyoroti masalah paradoks dalam pilihan model Bayesian?

Saya telah membaca beberapa artikel, yaitu blog Xi'an dan blog Andrew Gelman , tetapi saya masih belum mengerti masalahnya.


1
Saya pikir ada terlalu banyak pertanyaan dan terlalu berbeda untuk dijawab secara efektif di sini.
jaradniemi

Terima kasih atas umpan baliknya, @jaradniemi, saya telah menghapus pertanyaan "Haruskah prosedur RJMCMC, yang secara efektif mengembalikan probabilitas model posterior, lebih menyukai model yang sama dengan DIC?"
Jeff

Jawaban:


5

Maaf karena tidak jelas di blog saya !

Catatan: Saya memberikan latar belakang tentang pilihan model Bayesian dan paradoks Jeffrey-Lindley dalam jawaban lain tentang Cross yang divalidasi.

Paradoks Jeffreys-Lindley terkait dengan pilihan model Bayesian dalam kemungkinan marginal menjadi tidak berarti ketika π adalah ukuran σ -finit (yaitu, ukuran dengan massa tak terbatas) daripada ukuran probabilitas. Alasan untuk kesulitan ini adalah bahwa massa tak hingga membuat π dan c π tidak dapat dibedakan untuk konstanta positif c . Secara khusus, faktor Bayes tidak dapat digunakan dan tidak boleh digunakan ketika satu model diberkahi dengan "flat" sebelumnya.

m(x)=π(θ)f(x|θ)dθ
πσπcπc

xN(0,1)
xN(θ,1)
B12=exp{n(x¯n)2/2}+exp{n(x¯nθ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτn
π(θ)=c
cB12
B12=exp{n(x¯n)2/2}c+exp{n(x¯nθ)2/2}dθ=exp{n(x¯n)2/2}c2π/n
c

Sekarang, jika prior Anda informatif (dan karenanya tepat), tidak ada alasan untuk paradoks Jeffreys-Lindley terjadi. Dengan jumlah pengamatan yang cukup, faktor Bayes akan secara konsisten memilih model yang menghasilkan data. (Atau lebih tepatnya model dalam koleksi model dipertimbangkan untuk pilihan model yang paling dekat dengan model "benar" yang menghasilkan data.)


2
Terima kasih banyak atas jawaban Anda yang sangat terperinci, Xi'an! Blog Anda sangat jelas (saya telah belajar banyak dari itu) Saya hanya sedikit lambat dalam memahami masalah khusus ini!
Jeff

Sebenarnya, blog saya beroperasi dengan asumsi yang sangat bervariasi pada latar belakang dan prasyarat, jadi itu jelas pada waktu dan bagi banyak pembaca!
Xi'an
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.