makalah ini mungkin menarik:
http://arxiv.org/pdf/0906.4032v1.pdf
Ini memberikan ringkasan yang bagus dari beberapa pendekatan yang sering dan Bayesian untuk dua masalah sampel, dan membahas kasus parametrik dan nonparametrik.
Mungkin menambahkan sesuatu ke jawaban lain untuk memberikan contoh sederhana. Katakanlah Anda memiliki dua set data dan y di mana masing-masing x i dan masing-masing adalah atau . Anda menganggap model iid Bernoulli dalam kedua kasus, sehingga masing-masing dan setiap . Hipotesis Anda menguji skenario di kedua yang frequentist dan pengaturan Bayesian dapat:xyxi 0 1 x i ∼ B e r n ( p ) y i ∼ B e r n ( q )yj01xi∼Bern(p)yi∼Bern(q)
H0:p=q
H1:p,q tidak harus sama.
Kemungkinan data dalam setiap kasus adalah:
Di bawah :H0L.0( p ) = f( x , y ; p ) = ∏sayahalsaya( 1 - p )1 - i∏jhalj( 1 - p )1 - j
Di bawah :H1L.1( p , q) = f( x , y ; p , q) = ∏sayahalsaya( 1 - p )1 - i∏jqj( 1 - q)1 -j
(sejak di bawah ). Pendekatan yang sering dilakukan untuk masalah mungkin adalah dengan melakukan uji rasio kemungkinan, di mana Anda menghitung statistik:H0q= p
W= - 2 log{ L0( halm a x)L.1( halm a x, qm a x)} ,
di mana menunjukkan estimasi kemungkinan maksimum untuk dan bawah hipotesis yang relevan (jadi dalam pembilang mungkin tidak sama dengan dalam penyebut). asimptotik mengikuti (lihat misalnya Pawitan, 2001), jadi Anda akan menentukan tingkat signifikansi dan menolak / gagal untuk menolak sesuai.halm a x, qm a xhalqhalm a xhalm a xWχ21H0
Secara tradisional, dalam pendekatan Bayesian statistik uji akan menjadi faktor Bayes. Pertama, Anda akan mengasumsikan beberapa prior prior bawah dan bawah . Faktor Bayes adalah rasio kemungkinan marjinal, yang diberikan oleh:p ∼ π0H0p , q∼ π1H1
B F= f( x , y | H0)f( x , y | H1)= ∫10L.0( p ) π0( p ) dhal∫10∫10L.1( p , q) π1( p , q) dp dq .
Faktor Bayes dapat dikombinasikan dengan beberapa keyakinan sebelumnya tentang kemungkinan atau benar, untuk memberikan probabilitas dibandingkan setelah melihat data . Jika kita mengasumsikan apriori bahwa setiap hipotesis memiliki kemungkinan yang sama, maka , maka ini memberi:H0H1H0H1 p ( H0) = p ( H1) = 1 / 2
p ( H0| x , y )p ( H1| x , y )= B F× p ( H0)p ( H1)= B F× 1 / 21 / 2= B F.
Secara intuitif, jika rasio ini , maka probabilitas posterior dari lebih besar dari , jadi Anda akan mengatakan bahwa memiliki probabilitas lebih tinggi untuk menjadi kenyataan di bawah ini asumsi untuk prior dan model.> 1H0H1H0
Satu hal yang menyenangkan tentang faktor Bayes adalah bagaimana hal itu secara otomatis menghukum model yang lebih kompleks (seperti sini). Sebuah makalah yang bagus menawarkan beberapa intuisi ada di sini: http://quasar.as.utexas.edu/papers/ockham.pdf .H1
Harapan yang membantu bersama dengan jawaban lain yang sudah diposting.