Misalkan Anda memiliki variabel acak (yang nilainya akan diamati dalam percobaan Anda) yang independen secara kondisional, mengingat bahwa Θ = θ , dengan kepadatan bersyarat f X i ∣ Θ (X1, ... ,XnΘ = θ , untuk i = 1 , … , n . Ini adalah Anda (mendalilkan) statistik (bersyarat) model, dan kepadatan bersyarat mengungkapkan, untuk setiap kemungkinan nilai θ dari (random) parameter Θ , ketidakpastian tentang nilai-nilai dari X i 's,sebelumAnda memiliki akses ke nyata data. Dengan bantuan kepadatan bersyarat Anda dapat, misalnya, menghitung probabilitas bersyarat seperti
P { X 1 ∈ B 1 , … , X n ∈ B nfXsaya∣ Θ(⋅ ∣ θ )i = 1 , … , nθΘXsaya
untuk masing-masing θ .
P{ X1∈ B1, ... , Xn∈ Bn∣ Θ = θ } = ∫B1× ⋯ × Bn∏i = 1nfXsaya∣ Θ( xsaya∣ θ )dx1... dxn,
θ
Setelah Anda memiliki akses ke sampel yang sebenarnya nilai (realisasi) dari X i 's yang telah diamati dalam satu kali percobaan Anda, situasi berubah: tidak ada ketidakpastian lagi tentang diamati X 1 , ... , X n . Misalkan Θ acakmengasumsikan nilai dalam beberapa ruang parameter Π . Sekarang, Anda mendefinisikan, untuk nilai-nilai yang diketahui (tetap) ( x 1 , ... , x n ) fungsi
L( x1, ... , xn)XsayaX1, ... , XnΘΠ( x1, ... , xn)
L.x1, ... , xn: Π → R
oleh
Perhatikan bahwa
L x 1L.x1, ... , xn( θ ) = ∏i = 1nfXsaya∣ Θ( xsaya∣ θ).
, yang dikenal sebagai "fungsi kemungkinan" adalah fungsi dari
θ. Dalam situasi "setelah Anda memiliki data" ini, kemungkinan
L x 1 , ... , x n berisi, untuk model kondisional tertentu yang kami pertimbangkan, semua informasi tentang parameter
Θ yangterkandung dalam sampel khusus ini
( x 1 ,..., x n ). Bahkan, kebetulan bahwa
L x 1 , ... ,L.x1, ... , xnθL.x1, ... , xnΘ( x1, ... , xn) adalah statistik yang cukup untuk
Θ.
L.x1, ... , xnΘ
Menjawab pertanyaan Anda, untuk memahami perbedaan antara konsep kepadatan bersyarat dan kemungkinan, perhatikan definisi matematisnya (yang jelas berbeda: mereka adalah objek matematika yang berbeda, dengan sifat yang berbeda), dan juga ingat bahwa kepadatan bersyarat merupakan "pra -contoh "objek / konsep, sedangkan kemungkinannya adalah" after-sample ". Saya harap semua ini juga membantu Anda menjawab mengapa inferensi Bayesian (menggunakan cara Anda mengatakannya, yang menurut saya tidak ideal) dilakukan "menggunakan fungsi kemungkinan dan bukan distribusi kondisional": tujuan inferensi Bayesian adalah untuk menghitung distribusi posterior, dan untuk itu kami mengkondisikan pada data yang diamati (diketahui).