Maaf karena tidak jelas di blog saya !
Catatan: Saya memberikan latar belakang tentang pilihan model Bayesian dan paradoks Jeffrey-Lindley dalam jawaban lain tentang Cross yang divalidasi.
Paradoks Jeffreys-Lindley terkait dengan pilihan model Bayesian dalam kemungkinan marginal
menjadi tidak berarti ketika π adalah ukuran σ -finit (yaitu, ukuran dengan massa tak terbatas) daripada ukuran probabilitas. Alasan untuk kesulitan ini adalah bahwa massa tak hingga membuat π dan c π tidak dapat dibedakan untuk konstanta positif c . Secara khusus, faktor Bayes tidak dapat digunakan dan tidak boleh digunakan ketika satu model diberkahi dengan "flat" sebelumnya.
m ( x ) = ∫π( θ ) f( x | θ )d θ
πσπcπc
x∼N(0,1)
x∼N(θ,1)
B12=exp{−n(x¯n)2/2}∫+∞−∞exp{−n(x¯n−θ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτnπ(θ)=c
cB12B12=exp{−n(x¯n)2/2}c∫+∞−∞exp{−n(x¯n−θ)2/2}dθ=exp{−n(x¯n)2/2}c2π/n−−−−√
c
Sekarang, jika prior Anda informatif (dan karenanya tepat), tidak ada alasan untuk paradoks Jeffreys-Lindley terjadi. Dengan jumlah pengamatan yang cukup, faktor Bayes akan secara konsisten memilih model yang menghasilkan data. (Atau lebih tepatnya model dalam koleksi model dipertimbangkan untuk pilihan model yang paling dekat dengan model "benar" yang menghasilkan data.)