Saya mengambil kursus Intro to Bayes dan saya mengalami kesulitan memahami distribusi prediktif. Saya mengerti mengapa mereka berguna dan saya akrab dengan definisi, tetapi ada beberapa hal yang saya tidak mengerti.
1) Cara mendapatkan distribusi prediksi yang tepat untuk vektor pengamatan baru
Misalkan kita telah membangun model sampling untuk data dan sebelumnya . Asumsikan bahwa pengamatan independen tergantung kondisi .
Kami telah mengamati beberapa data , dan kami memperbarui sebelumnya ke posterior .
Jika kami ingin memprediksi vektor pengamatan baru , saya pikir kita harus mencoba untuk mendapatkan prediksi posterior menggunakan rumus ini yang tidak sama dengan jadi pengamatan yang diprediksi tidak independen, kan?n ∏ i = 1 ∫ p ( θ | D ) p ( ˜ y i | θ )
Katakan itu Beta ( a, b ) dan p (y_i | \ theta) \ sim Binomial ( n, \ theta ) untuk fix n . Dalam hal ini, jika saya ingin mensimulasikan 6 \ tilde baru {y} , jika saya memahami ini dengan benar, akan salah untuk mensimulasikan 6 gambar secara independen dari distribusi Beta-Binomial yang sesuai dengan prediksi posterior untuk pengamatan tunggal. Apakah ini benar? Saya tidak tahu bagaimana menafsirkan bahwa pengamatan tidak independen secara marjinal, dan saya tidak yakin saya mengerti ini dengan benar.a , b p ( y i | θ ) ∼ n , θ n ˜ y
Simulasi dari prediksi posterior
Sering kali ketika kita mensimulasikan data dari prediksi posterior kita mengikuti skema ini:
Untuk dari 1 ke :
1) Contoh dari . p ( θ | D )
2) Kemudian simulasikan data baru dari . p( N | θ ( b ) )
Saya tidak tahu bagaimana cara membuktikan skema ini bekerja, meskipun terlihat intuitif. Juga, apakah ini punya nama? Saya mencoba mencari pembenaran dan saya mencoba nama yang berbeda, tetapi saya tidak beruntung.
Terima kasih!