Saya pikir mungkin cara terbaik untuk menjelaskan gagasan kemungkinan adalah dengan mempertimbangkan contoh nyata. Misalkan saya memiliki sampel pengamatan IID yang diambil dari distribusi Bernoulli dengan probabilitas keberhasilan yang tidak diketahuip: Xi∼Bernoulli(p), i=1,…,n, jadi fungsi massa probabilitas gabungan dari sampel adalah Ekspresi ini juga mencirikan kemungkinan , mengingat sampel yang diamati : Tetapi jika kita menganggap sebagai variabel acak, kemungkinan ini bukan densitas: Namun, proporsional dengan kepadatan probabilitas, itulah sebabnya kami mengatakan itu adalah kemungkinan
Pr[X=x∣p]=∏i=1npxi(1−p)1−xi.
px=(x1,…,xn)L(p∣x)=∏i=1npxi(1−p)1−xi.
p∫1p=0L(p∣x)dp≠1.
pmenjadi nilai tertentu yang diberikan sampel - itu mewakili, dalam beberapa hal, masuk akal relatif menjadi beberapa nilai untuk pengamatan yang kami buat.
p
Misalnya, misalkan dan sampelnya . Secara intuitif kita akan menyimpulkan bahwa lebih cenderung lebih dekat ke daripada ke , karena kami mengamati lebih banyak. Memang, kita memiliki Jika kita memplot fungsi ini pada , kita dapat melihat bagaimana kemungkinan mengkonfirmasi intuisi kita. Tentu saja, kita tidak tahu nilai sebenarnya dari itu bisa saja daripada , tetapi fungsi kemungkinan memberitahu kita bahwa yang pertama jauh lebih kecil daripada yang terakhir. Tetapi jika kita ingin menentukan probabilitasn=5x=(1,1,0,1,1)p10
L(p∣x)=p4(1−p).
p∈[0,1]pp=0.25p=0.8bahwa terletak pada interval tertentu, kita harus menormalkan kemungkinan: karena , maka dalam Untuk mendapatkan
kepadatan posterior untuk , kita harus mengalikan dengan : Sebenarnya, posterior ini adalah distribusi beta dengan parameter . Sekarang area di bawah kepadatan sesuai dengan probabilitas.
p∫1p=0p4(1−p)dp=130p30fp(p∣x)=30p4(1−p).
a=5,b=2
Jadi, yang pada dasarnya kita lakukan di sini adalah menerapkan aturan Bayes: Di sini, adalah distribusi sebelumnya pada parameter (s) , pembilangnya adalah kemungkinan yang juga merupakan distribusi gabungan dari
fΘ(θ∣x)=fX(x∣θ)fΘ(θ)fX(x).
fΘ(θ)θL(θ∣x)=fX(x∣θ)fΘ(θ)=fX,Θ(x,θ)X,Θ , dan penyebutnya adalah densitas marginal (tanpa syarat) dari , diperoleh dengan mengintegrasikan distribusi sambungan sehubungan dengan untuk menemukan konstanta normalisasi yang membuat kemungkinan kepadatan kemungkinan dengan probabilitas sehubungan dengan parameter. Dalam contoh numerik kami, secara implisit kami mengambil prior untuk untuk menjadi seragam pada . Dapat ditunjukkan bahwa, untuk sampel Bernoulli, jika prior adalah , posterior untuk juga Beta, tetapi dengan parameter ,
XθfΘ[0,1]Beta(a,b)fΘa∗=a+∑xib∗=b+n−∑xi. Kami menyebutnya
konjugat sebelumnya (dan menyebutnya sebagai pasangan konjugat Bernoulli-Beta).