Saya sendiri sedang bergulat dengan pertanyaan ini. Inilah hasil yang mungkin bisa membantu. Pertimbangkan model linier
y=Xβ+ϵ,ϵ∼N(0,σ2)
di mana dan βy∈Rn,β∈Rp,β dan adalah parameter yang menarik. Kemungkinan bersama adalahσ2
L(β,σ2)=(2πσ2)−n/2exp(−||y−Xβ||22σ2)
Mengoptimalkan hasil kemungkinan gabungan
β^=X+y
σ^2=1n||r||2
di mana adalah pseudoinverse dari X dan r = y - X β adalah vektor residual fit. Perhatikan bahwa di σ 2 kita memiliki 1 / n bukan derajat-of-kebebasan familiar dikoreksi rasio 1 / ( n - p ) . Estimator ini diketahui bias dalam kasus sampel terbatas.X+Xr=y−Xβ^σ^21/n1/(n−p)
Sekarang anggaplah alih-alih mengoptimalkan lebih dari dan σ 2 , kami mengintegrasikan β keluar dan memperkirakan σβσ2βσ2 from the resulting integrated likelihood:
σ^2=maxσ2∫RpL(β,σ2)dβ
Using elementary linear algebra and the Gaussian integral formula, you can show that
σ^2=1n−p||r||2
This has the degrees-of-freedom correction which makes it unbiased and generally favored over the joint ML estimate.
Dari hasil ini orang mungkin bertanya apakah ada sesuatu yang secara inheren menguntungkan tentang kemungkinan terintegrasi, tetapi saya tidak tahu ada hasil umum yang menjawab pertanyaan itu. Tampaknya konsensus bahwa ML terintegrasi lebih baik dalam akuntansi untuk ketidakpastian dalam sebagian besar masalah estimasi. Khususnya, jika Anda memperkirakan kuantitas yang bergantung pada taksiran parameter lainnya (bahkan secara implisit), maka pengintegrasian atas parameter lainnya akan lebih memperhitungkan ketidakpastiannya.