Memilih antara prior beta yang tidak informatif


16

Saya mencari prior yang tidak informatif untuk distribusi beta agar dapat bekerja dengan proses binomial (Hit / Miss). Pada awalnya saya berpikir tentang menggunakan α=1,β=1 yang menghasilkan PDF yang seragam, atau Jeffrey sebelumnya α=0.5,β=0.5 . Tapi saya sebenarnya mencari prior yang memiliki efek minimum pada hasil posterior, dan kemudian saya berpikir untuk menggunakan sebelum α=0,β=0 . Masalahnya di sini adalah bahwa distribusi posterior saya hanya berfungsi jika saya memiliki setidaknya satu hit dan satu miss. Untuk mengatasi ini saya kemudian berpikir tentang menggunakan konstanta yang sangat kecil, seperti , hanya untuk memastikan bahwa posterior α dan β akan > 0 .α=0.0001,β=0.0001αβ>0

Adakah yang tahu kalau pendekatan ini bisa diterima? Saya melihat efek numerik dari mengubah ini sebelumnya, tetapi seseorang dapat memberi saya semacam interpretasi dengan menempatkan konstanta kecil seperti ini sebagai prior?


1
Untuk sampel besar dengan banyak hit dan miss, itu membuat sedikit perbedaan. Untuk sampel kecil, terutama jika tidak ada setidaknya satu pukulan dan satu kehilangan, itu membuat perbedaan besar; bahkan ukuran "konstanta sangat kecil" Anda dapat memiliki dampak yang substansial. Saya akan menyarankan eksperimen pikiran kunci untuk Anda bisa menjadi apa posterior masuk akal setelah ukuran sampel dari : ini mungkin membujuk Anda bahwa sesuatu seperti Jeffrey s sebelum masuk akal1
Henry

Dan ada sebuah kertas yang Kerman sarankan 1/3 & 1/3, b
Björn

Apa yang Anda maksud dengan `efek minimum pada hasil posterior '? Dibandingkan dengan apa?
Will

Saya meningkatkan pemformatan dan judul pertanyaan Anda, jangan ragu untuk mengembalikan atau mengubah suntingan.
Tim

Jawaban:


32

Pertama-tama, tidak ada yang namanya tidak informatif sebelumnya . Di bawah ini Anda dapat melihat distribusi posterior yang dihasilkan dari lima prior "uninformative" berbeda (dijelaskan di bawah plot) diberikan data yang berbeda. Seperti yang Anda lihat dengan jelas, pilihan prior "uninformative" mempengaruhi distribusi posterior, terutama dalam kasus di mana data itu sendiri tidak memberikan banyak informasi .

Posteriors dari prior uninformative

Prior "tidak informatif" untuk distribusi beta berbagi properti yang , yang mengarah ke distribusi simetris, dan α 1 , β 1 , pilihan umum: seragam (Bayes-Laplace) sebelumnya ( α = β = 1 ), Jeffreys sebelum ( α = β = 1 / 2 ), "Netral" sebelum ( α = β = 1 / 3 ) yang diusulkan oleh Kerman (2011), Haldane sebelum ( α = β = 0α=βα1,β1α=β=1α=β=1/2α=β=1/3α=β=0), atau perkiraannya ( dengan ε > 0 ) (lihat juga artikel Wikipedia yang hebat ).α=β=εε>0

Parameter distribusi beta sebelumnya umumnya dianggap sebagai "pseudocount" keberhasilan ( ) dan kegagalan ( β ) karena distribusi posterior model beta-binomial setelah mengamati keberhasilan y dalam n percobaan adalahαβyn

θyB(α+y,β+ny)

α,βα=β=1n

Pada pandangan pertama, Haldane sebelumnya, tampaknya yang paling "tidak informatif", karena mengarah ke rata-rata posterior, yang persis sama dengan perkiraan kemungkinan maksimum

α+yα+y+β+ny=y/n

y=0y=n

Ada sejumlah argumen untuk dan menentang masing-masing prior "tidak informatif" (lihat Kerman, 2011; Tuyl et al, 2008). Misalnya, seperti yang dibahas oleh Tuyl et al,

101

Di sisi lain, menggunakan prior uniform untuk set data kecil mungkin sangat berpengaruh (pikirkan dalam hal pseudocounts). Anda dapat menemukan lebih banyak informasi dan diskusi tentang topik ini di banyak makalah dan buku pegangan.

Maaf, tetapi tidak ada satu pun prior "best", "most uninformative", atau "one-size-fitts-all". Masing-masing membawa beberapa informasi ke dalam model.

Kerman, J. (2011). Distribusi konjugat beta dan gamma noninformatif dan informatif netral sebelumnya. Jurnal Elektronik Statistik, 5, 1450-1470.

Tuyl, F., Gerlach, R. dan Mengersen, K. (2008). Perbandingan Bayes-Laplace, Jeffreys, dan Priors Lainnya. The American Statistician, 62 (1): 40-44.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.