MCMC dan augmentasi data


8

Saya telah melihat pertanyaan augmentasi data MCMC; bentuk umum dari pertanyaan adalah sebagai berikut:

Misalkan data yang dikumpulkan pada suatu proses menyarankan dan prior untuk parameter rate disarankan sebagai . Data dicatat dan disajikan dalam bentuk yang khas (yaitu jumlah kemunculan dari setiap nilai untuk dari hingga ), namun, data yang dikumpulkan tidak membeda-bedakan dalam kasus di mana (yaitu semua kejadian di mana dan dikelompokkan ke dalam satu kategori).XiPois(λ)λExp(λ0)Xi0nXi1Xi=0Xi=1

Mengingat data, kemungkinan dan yang dijelaskan sebelumnya di atas, pertanyaannya adalah:

  • Bentuk posterior ,λ

  • Jumlah kemunculan di mana .Xi=0

Saya tidak begitu yakin bagaimana menjawab pertanyaan ini, tetapi saya sadar bahwa Gibbs Sampling dapat digunakan dalam augmentasi data. Adakah yang punya informasi tentang bagaimana ini bisa dilakukan?

EDIT:

Saya harus menentukan bahwa itu terutama bagian kedua (jumlah kejadian di mana ) yang saya tidak yakin. Untuk bagian pertama (bentuk posterior ), mengingat kemungkinan dan saran sebelumnya, saya beralasan (walaupun saya senang dikoreksi):Xi=0λ

Diberikan:

π(λ|x)p(x|λ)×p(λ)

Jadi, untuk model yang diberikan di atas:

π(λ|x)=λi=1nxii=1nxi!enλ×λ0eλλ0

Menyederhanakan hasil:

π(λ|x)=λi=1nxii=1nxi!eλ(n+λ0)λ0

yang sebanding dengan (dan karenanya bentuk posterior diberikan oleh):

π(λ|x)λi=1nxieλ(n+λ0)λ0

Jawaban:


5

Jawaban Anda tidak menjelaskan fakta bahwa pengamatan yang sama dengan nol dan satu digabungkan bersama: apa yang Anda hitung adalah posterior untuk data Poisson lengkap, , bukan untuk data yang dikumpulkan atau digabungkan , .(X1,,Xn)(X1,,Xn)

Jika kita mengambil konvensi bahwa kasus ketika pengamatan sesuai dengan atau dan pengamatan hingga , kepadatan vektor yang diamati adalah (setelah beberapa aljabar dan factorisation) mana adalah jumlah dari kali sama dengan satu. Istilah terakhir antara kurung di atas adalah probabilitas untuk mendapatkan 0 atau 1 dalam undian Poisson.Xi=1Xi=1Xi=0Xi=k>1Xi=k(X1,,Xn)

π(λ|x1,,xn)λi=1nxiI(xi>1)exp{λ(λ0+n)}×{1+λ}n1
n1xi

Jadi ini posterior Anda yang sebenarnya / diamati. Dari sana, Anda dapat menerapkan sampler Gibbs dengan

  1. Menghasilkan "pengamatan yang hilang" yang diberikan dan pengamatan, yaitu mensimulasikan , yang diberikan oleh λp(xi|λ,xi=1)
    P(xi=0|λ,xi=1)=1P(xi=1|λ,xi=1)=11+λ.
  2. Menghasilkan diberi "data lengkap", yang berjumlah seperti yang telah Anda hitung.λ
    λ|x1,,xnG(ixi+1,n+λ0)

(Jika Anda ingin lebih detail, Contoh 9.7, hal.346, dalam buku Metode Statistik Monte Carlo dengan George Casella persis mencakup pengaturan ini.)


2
(2) Algoritma MCMC dapat mulai dengan nilai arbitrer karena rantai Markov berulang, ini adalah ide inti di balik metode rantai Markov Monte Carlo. Perhatikan bahwa adalah parameter dari sebelumnya: ia dipilih apriori dan tidak berubah setelah data diamati. λ0
Xi'an

2
(3) Ketika mengambil sampel dari distribusi Gamma pada langkah 2 sampler Gibbs, perhatikan bahwa saya mengkondisikan data lengkap, yang dihasilkan pada langkah 1 sampler Gibbs. Karena itu saya "tahu" setiap nilai , bahkan nilai . Cobalah memahami perbedaan antara dan , ini adalah ide mendasar di balik prinsip augmentasi data. xixi=1xixi
Xi'an

2
(1) Bagian sesuai dengan pengamatan yang dikelompokkan. [{λ+1}exp(λ)]n1
Xi'an

2
(2) Ini adalah probabilitas bersyarat (silakan coba lakukan matematika sendiri):P(xi=0|λ,xi=1)=P(xi=0,xi=1|λ)/P(xi=1|λ)=P(xi=0|λ)/P(xi=1|λ)
Xi'an

2
(3) Pengambilan sampel Gibbs dilakukan oleh conditional. Jadi pada langkah 2, kita mengkondisikan pada kita disimulasikan pada langkah 1 (dan pada langkah 1 pada kita disimulasikan pada langkah 2). Ini berarti mereka diketahui (meskipun mereka akan berubah pada iterasi berikutnya) dan demikian pula jumlahnya. Anda pasti perlu membaca beberapa pengantar Gibbs jika poin mendasar ini tetap tidak jelas bagi Anda ...xiλxi
Xi'an
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.