Dalam hal ini, Anda dapat mempertimbangkan perkiraan ABC dari kemungkinan (dan akibatnya dari MLE ) di bawah asumsi / batasan berikut:
Anggapan. Ukuran sampel asli diketahui.n
Ini bukan asumsi liar mengingat bahwa kualitas, dalam hal konvergensi, penduga sering tergantung pada ukuran sampel, oleh karena itu seseorang tidak dapat memperoleh penduga yang baik secara sewenang-wenang tanpa mengetahui ukuran sampel asli.
Idenya adalah untuk menghasilkan sampel dari distribusi posterior dan, untuk menghasilkan perkiraan MLE , Anda dapat menggunakan teknik sampel penting seperti pada [1] atau untuk mempertimbangkan seragam sebelumnya θ dengan dukungan pada yang sesuai. atur seperti pada [2] .θθ
Saya akan menjelaskan metode ini di [2]. Pertama-tama, izinkan saya menggambarkan sampler ABC.
ABC Sampler
Misalkan menjadi model yang menghasilkan sampel di mana θ ∈ Θ adalah parameter (diperkirakan), T menjadi statistik (fungsi sampel) dan T 0 menjadi statistik yang diamati, dalam jargon ABC ini disebut statistik ringkasan , ρ menjadi metrik, π ( θ ) distribusi sebelumnya pada θ dan ϵ > 0 a toleransi. Kemudian, sampler penolakan-ABC dapat diimplementasikan sebagai berikut.f(⋅|θ)θ∈ΘTT0ρπ(θ)θϵ>0
- Sampel dari π ( ⋅ ) .θ∗π(⋅)
- Hasilkan sampel ukuran n dari model f ( ⋅ |xn .f(⋅|θ∗)
- Hitung .T∗=T(x)
- Jika , terima θ ∗ sebagai simulasi dari posterior θ .ρ(T∗,T0)<ϵθ∗θ
Algoritma ini menghasilkan sampel perkiraan dari distribusi posterior diberikan T ( x ) = T 0 . Oleh karena itu, skenario terbaik adalah ketika statistik T mencukupi tetapi statistik lain dapat digunakan. Untuk penjelasan lebih rinci tentang ini, lihat makalah ini .θT(x)=T0T
Sekarang, dalam kerangka umum, jika seseorang menggunakan seragam sebelumnya yang berisi MLE dalam dukungannya, maka Maximum a posteriori (MAP) bertepatan dengan Maximum Likelihood Estimator (MLE). Karena itu, jika Anda mempertimbangkan seragam yang sesuai sebelum di ABC Sampler, maka Anda dapat membuat sampel perkiraan distribusi posterior yang MAPnya bertepatan dengan MLE. Langkah yang tersisa terdiri dari memperkirakan mode ini. Masalah ini telah dibahas dalam CV, misalnya dalam "Estimasi efisien multivarian mode secara komputasi" .
Contoh mainan
Mari menjadi sampel dari N ( μ , 1 ) dan anggaplah bahwa satu-satunya informasi yang tersedia dari sampel ini ˉ x = 1(x1,...,xn)N(μ,1). Biarkanρmenjadi metrik Euclidean dalamRdanϵ=0,001. Kode R berikut menunjukkan cara mendapatkan perkiraan MLE menggunakan metode yang dijelaskan di atas menggunakan sampel simulasi dengann=100danμ=0, sampel distribusi posterior ukuran1000, seragam sebelumμpada(-0,3,0,3), dan estimator densitas kernel untuk estimasi mode sampel posterior (MAP = MLE).x¯=1n∑nj=1xjρRϵ=0.001n=100μ=01000μ(−0.3,0.3)
rm(list=ls())
# Simulated data
set.seed(1)
x = rnorm(100)
# Observed statistic
T0=mean(x)
# ABC Sampler using a uniform prior
N=1000
eps = 0.001
ABCsamp = rep(0,N)
i=1
while(i<N+1){
u = runif(1,-0.3,0.3)
t.samp = rnorm(100,u,1)
Ts = mean(t.samp)
if(abs(Ts-T0)<eps){
ABCsamp[i]=u
i=i+1
print(i)
}
}
# Approximation of the MLE
kd = density(ABCsamp)
kd$x[which(kd$y==max(kd$y))]
Seperti yang dapat Anda lihat, dengan menggunakan toleransi kecil, kami mendapatkan perkiraan MLE yang sangat baik (yang dalam contoh sepele ini dapat dihitung dari statistik karena cukup). Penting untuk diperhatikan bahwa pilihan statistik ringkasan sangat penting. Kuantil biasanya merupakan pilihan yang baik untuk statistik ringkasan, tetapi tidak semua pilihan menghasilkan perkiraan yang baik. Bisa jadi statistik ringkasannya tidak terlalu informatif dan kualitas perkiraannya mungkin buruk, yang terkenal di komunitas ABC.
Pembaruan: Pendekatan serupa baru-baru ini diterbitkan di Fan et al. (2012) . Lihat entri ini untuk diskusi di atas kertas.