Memahami Distribusi Prediktif Bayesian


9

Saya mengambil kursus Intro to Bayes dan saya mengalami kesulitan memahami distribusi prediktif. Saya mengerti mengapa mereka berguna dan saya akrab dengan definisi, tetapi ada beberapa hal yang saya tidak mengerti.

1) Cara mendapatkan distribusi prediksi yang tepat untuk vektor pengamatan baru

Misalkan kita telah membangun model sampling untuk data dan sebelumnya . Asumsikan bahwa pengamatan independen tergantung kondisi .p(yi|θ)p(θ)yiθ

Kami telah mengamati beberapa data , dan kami memperbarui sebelumnya ke posterior .D={y1,y2,...,yk}p(θ)p(θ|D)

Jika kami ingin memprediksi vektor pengamatan baru , saya pikir kita harus mencoba untuk mendapatkan prediksi posterior menggunakan rumus ini yang tidak sama dengan jadi pengamatan yang diprediksi tidak independen, kan?N={y~1,y~2,...,y~n}n i = 1 p ( θ | D ) p ( ˜ y i | θ )

p(N|D)=p(θ|D)p(N|θ)dθ=p(θ|D)i=1np(y~i|θ)dθ,
i=1np(θ|D)p(y~i|θ)dθ,

Katakan itu Beta ( a, b ) dan p (y_i | \ theta) \ sim Binomial ( n, \ theta ) untuk fix n . Dalam hal ini, jika saya ingin mensimulasikan 6 \ tilde baru {y} , jika saya memahami ini dengan benar, akan salah untuk mensimulasikan 6 gambar secara independen dari distribusi Beta-Binomial yang sesuai dengan prediksi posterior untuk pengamatan tunggal. Apakah ini benar? Saya tidak tahu bagaimana menafsirkan bahwa pengamatan tidak independen secara marjinal, dan saya tidak yakin saya mengerti ini dengan benar.a , b p ( y i | θ ) n , θ n ˜ yθ|Da,bp(yi|θ)n,θny~

Simulasi dari prediksi posterior

Sering kali ketika kita mensimulasikan data dari prediksi posterior kita mengikuti skema ini:

Untuk b dari 1 ke B :

1) Contoh dari . p ( θ | D )θ(b)p(θ|D)

2) Kemudian simulasikan data baru dari . p( N | θ ( b ) )N(b)p(N|θ(b))

Saya tidak tahu bagaimana cara membuktikan skema ini bekerja, meskipun terlihat intuitif. Juga, apakah ini punya nama? Saya mencoba mencari pembenaran dan saya mencoba nama yang berbeda, tetapi saya tidak beruntung.

Terima kasih!


Saya mengajukan pertanyaan serupa di stats.stackexchange.com/questions/72570/... tetapi sepertinya Anda telah menerima lebih banyak suara sejauh ini.
Yohanes

Jawaban:


4

Misalkan bersyarat independen mengingat . Kemudian, di mana kesetaraan pertama mengikuti dari hukum probabilitas total, yang kedua mengikuti dari aturan produk, dan yang ketiga dari kemandirian kondisional yang diasumsikan: diberi nilai Θ = θ f X n + 1X 1 , , X n ( x n + 1x 1 , , x n ) = f X n + 1 , Θ X 1 , , X n ( xX1,,Xn,Xn+1Θ=θ= f X n + 1Θ , X 1 , , X n ( x n + 1θ , x 1 , , x n ) f Θ X 1 , , X n ( θ x 1 , , X n )

fXn+1X1,,Xn(xn+1x1,,xn)=fXn+1,ΘX1,,Xn(xn+1,θx1,,xn)dθ
= f X n + 1Θ ( x n + 1θ ) f Θ X 1 , , X n ( θ x 1 , , x n )
=fXn+1Θ,X1,,Xn(xn+1θ,x1,,xn)fΘX1,,Xn(θx1,,xn)dθ
Θ X 1 , , X n X n + 1
=fXn+1Θ(xn+1θ)fΘX1,,Xn(θx1,,xn)dθ,
Θ, kita tidak memerlukan nilai untuk menentukan distribusi .X1,,XnXn+1

Skema simulasi sudah benar: untuk , draw dari distribusi , lalu gambar dari distribusi . Ini memberi Anda sampel dari distribusi .θ ( i ) Θ X 1 = x 1 , , X n = x n x ( i ) n + 1 X n + 1Θ = θ ( i ) { x ( i ) n + 1 } N i = 1 X n + 1i=1,,Nθ(i)ΘX1=x1,,Xn=xnxn+1(i)Xn+1Θ=θ(i){xn+1(i)}i=1NXn+1X1=x1,,Xn=xn


Bagaimana jika Anda mendapatkan prediksi posterior selama beberapa periode? Saya telah menggunakan untuk setiap , tetapi saya dapat melihat mengapa masuk akal untuk menggambar ulang theta baru. x n + jθ(i)xn+j
John

2

Saya akan mencoba membahas intuisi di balik menghasilkan distribusi prediktif posterior langkah demi langkah.

Biarkan menjadi vektor dari data yang diamati yang berasal dari distribusi probabilitas dan biarkan menjadi vektor nilai masa depan (atau di luar sampel) yang ingin kami prediksi. Kami berasumsi bahwa berasal dari distribusi yang sama dengan . Mungkin tergoda untuk menggunakan estimasi terbaik kami dari --- seperti estimasi MLE atau MAP --- untuk mendapatkan informasi tentang distribusi ini. Namun, melakukan hal itu pasti akan mengabaikan ketidakpastian kita tentang . Dengan demikian, cara yang tepat untuk memproses adalah dengan rata-rata di atas distribusi posterior , yaitu . Perhatikan juga bahwap ( y | θ ) ˜ y ˜ y y θ θ θ p ( θ | y ) ˜ y y θ yyp(y|θ)y~y~yθθθhal(θ|y)y~tidak bergantung pada diberikan , karena diasumsikan sebagai sampel independen yang diambil dari distribusi yang sama dengan . Jadi,yθy

hal(y~|θ,y)=hal(y~,y|θ)hal(θ)hal(θ,y)=hal(y~|θ)hal(y|θ)hal(θ)hal(y|θ)hal(θ)=hal(y~|θ).

Distribusi prediksi posterior dari adalah demikian,y~

hal(y~|y)=Θhal(y~|θ,y)hal(θ|y)dθ=Θhal(y~|θ)hal(θ|y)dθ

di mana adalah dukungan dari .Θθ

Sekarang, bagaimana kita mendapatkan sampel dari ? Metode yang Anda gambarkan kadang-kadang disebut metode komposisi , yang berfungsi sebagai berikut:hal(y~|y)


untuk s = 1,2, ..., S do

menggambar dariθ(s)hal(θ|y)

menggambar dariy~(s)hal(y~|θ(s))


di mana, dalam sebagian besar situasi, kita sudah memiliki undian dari , sehingga hanya langkah kedua yang diperlukan.hal(θ|y)

Alasan mengapa ini bekerja sangat sederhana: Perhatikan pertama bahwa . Dengan demikian, sampling vektor parameter dari dan, kemudian, menggunakan vektor ini untuk sampel dari menghasilkan sampel dari distribusi bersama . Oleh karena itu, nilai sampel adalah sampel dari distribusi marginal, .hal(y~,θ|y)=hal(y~|θ,y)hal(θ|y)θ(s)hal(θ|y)y~(s)p ( ~ y , q | y ) ~ y ( s ) , s = 1 , 2 , . . . , S p ( ˜ y | y )hal(y~|θ(s))=hal(y~|θ(s),y)hal(y~,θ|y)y~(s),s=1,2,...,Shal(y~|y)


1

Untuk menjawab pertanyaan pertama Anda: ya, pengamatan tidak independen jika Anda tidak tahu nilai . Katakanlah, Anda telah mengamati bahwa memiliki nilai yang agak ekstrem. Ini mungkin merupakan indikasi bahwa nilai itu sendiri ekstrem, dan, dengan demikian, Anda harus mengharapkan pengamatan lain juga ekstrem.˜ y 1 θθy~1θ

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.