Mencoba melengkapi jawaban lain ... Informasi apa yang dimaksud dengan informasi Fisher? Mulai dengan fungsi kemungkinan log
sebagai fungsi θ untuk θ ∈ Θ , ruang parameter. Dengan asumsi beberapa kondisi keteraturan yang tidak kita diskusikan di sini, kita memiliki
E ∂
ℓ(θ)=logf(x;θ)
θθ∈Θ(kami akan menulis turunan sehubungan dengan parameter sebagai titik-titik seperti di sini). Variansnya adalah informasi Fisher
I(θ)=Eθ( ˙ ℓ (θ))2=-Eθ ¨ ℓ (θ)
rumus terakhir yang menunjukkan bahwa itu adalah kelengkungan (negatif) dari fungsi kemungkinan loglikel. Orang sering menemukan penaksir kemungkinan maksimum (mle) dari
E∂∂θℓ(θ)=Eθℓ˙(θ)=0I(θ)=Eθ(ℓ˙(θ))2=−Eθℓ¨(θ)
dengan memecahkan persamaan kemungkinan
˙ ℓ ( θ ) = 0 ketika informasi Fisher sebagai varian dari skor
˙ ℓ ( θ ) besar, maka solusi untuk persamaan itu akan sangat sensitif terhadap data, memberikan harapan untuk tinggi presisi dari mle. Itu dikonfirmasi setidaknya secara asimptotik, varian asimptotik dari mle menjadi kebalikan dari informasi Fisher.
θℓ˙(θ)=0ℓ˙(θ)
ℓ(θ)θℓ(θ0)−ℓ(θ1)ℓ˙(θ)I(θ)θ0
I(θ)=−Eθℓ¨(θ)
θ0ℓ˙(θ)∣θ=θ0θθ0
{f(x;θ),θ∈Θ}xθΘθ0∈Θxf(x;θ0)f(x;θ0)
f(x;θ0)f(x;θ0) dalam model dengan berbagai cara.
X1,…,XnN(μ=10,σ2=1)
A:X1,…,Xn iid N(μ,σ2=1),μ∈RB:X1,…,Xn iid N(μ,μ/10),μ>0
μ=10
ℓA(μ)=−n2log(2π)−12∑i(xi−μ)2ℓB(μ)=−n2log(2π)−n2log(μ/10)−102∑i(xi−μ)2μ
ℓ˙A(μ)=n(x¯−μ)ℓ˙B(μ)=−n2μ−102∑i(xiμ)2−15n
ℓ¨A(μ)=−nℓ¨B(μ)=n2μ2+102∑i2x2iμ3
μ=10IA(μ=10)=n,IB(μ=10)=n⋅(1200+20202000)>n
μ
Juga, contoh ini menggambarkan bahwa kita benar-benar membutuhkan beberapa teori untuk membantu kita dalam cara membangun keluarga model.