Masalah pada estimasi parameter


13

Biarkan dan menjadi empat variabel acak sehingga , di mana adalah parameter yang tidak diketahui. Juga asumsikan bahwa ,Lalu yang mana yang benar?θ 1 , θ 2 , θ 3 V a r ( Y i ) = σ 2 i = 1 , 2 , 3 , 4.Y1,Y2,Y3Y4E(Y1)=θ1θ3;  E(Y2)=θ1+θ2θ3;  E(Y3)=θ1θ3;  E(Y4)=θ1θ2θ3θ1,θ2,θ3Var(Yi)=σ2i=1,2,3,4.

A. dapat diperkirakan.θ1,θ2,θ3

B. dapat diperkirakan.θ1+θ3

C. dapat diperkirakan dan adalah estimasi linear tidak bias terbaik dari .θ1θ312(Y1+Y3)θ1θ3

D. dapat diperkirakan.θ2

Jawaban yang diberikan adalah C yang terlihat aneh bagi saya (karena saya mendapat D).

Kenapa saya mendapat D? Sejak, .E(Y2Y4)=2θ2

Mengapa saya tidak mengerti bahwa C bisa menjadi jawaban? Oke, saya bisa melihat, adalah penaksir yang tidak bias dari , dan kurang dari .Y1+Y2+Y3+Y44θ1θ3Y1+Y32

Tolong beritahu saya di mana saya melakukan kesalahan.

Juga diposting di sini: /math/2568894/a-problem-on-estimability-of-parameters


1
Masukkan self-studytag atau seseorang akan datang dan menutup pertanyaan Anda.
Carl

@Carl itu selesai tapi kenapa?
Stat_prob_001

Mereka aturan untuk situs, bukan aturan saya, aturan situs.
Carl

Apakah ? Y1Y3
Carl

1
@Carl Anda dapat berpikir dengan cara ini: mana adalah rv dengan mean dan varians . Dan, mana adalah rv dengan rerata dan variansϵ 1 0 σ 2 Y 3 = θ 1 - θ 3 + ϵ 3 ϵ 3 0 σ 2Y1=θ1θ3+ϵ1ϵ10σ2Y3=θ1θ3+ϵ3ϵ30σ2
Stat_prob_001

Jawaban:


8

Jawaban ini menekankan verifikasi kemungkinan. Properti varians minimum adalah pertimbangan sekunder saya.

Untuk memulainya, rangkumlah informasi dalam bentuk matriks dari model linier sebagai berikut: manaE

(1)Y:=[Y1Y2Y3Y4]=[101111101111][θ1θ2θ3]+[ε1ε2ε3ε4]:=Xβ+ε,
(untuk membahas estimasi, asumsi spherity tidak diperlukan. Tetapi untuk membahas properti Gauss-Markov, kita perlu mengasumsikan spherity ε ).E(ε)=0,Var(ε)=σ2Iε

Jika desain matriks adalah peringkat penuh, maka parameter asli β mengakui unik kuadrat-memperkirakan β = ( X ' X ) - 1 X ' Y . Akibatnya, setiap parameter φ , yang didefinisikan sebagai fungsi linear φ ( β ) dari β adalah diduga dalam arti bahwa hal itu dapat jelas diperkirakan oleh data melalui kuadrat-memperkirakan β sebagai φ = p ' β .Xββ^=(XX)1XYϕϕ(β)ββ^ϕ^=pβ^

Kehalusan muncul ketika tidak dari peringkat penuh. Untuk melakukan diskusi yang menyeluruh, kami memperbaiki beberapa notasi dan istilah pertama di bawah ini (Saya mengikuti konvensi Pendekatan Bebas Koordinat untuk Model Linier , Bagian 4.8. Beberapa istilah terdengar teknis tidak perlu). Selain itu, diskusi ini berlaku untuk model linear umum Y = X β + ε dengan X R n × k dan β R k .XY=Xβ+εXRn×kβRk

  1. Sebuah berjenis regresi adalah koleksi vektor mean sebagai bervariasi dari R k : M = { X β : β R k } .βRk
    M={Xβ:βRk}.
  2. Sebuah fungsional parametrik adalah fungsional linear dari β , φ ( β ) = p ' β = p 1 β 1 + + p k β k .ϕ=ϕ(β)β
    ϕ(β)=pβ=p1β1++pkβk.

Seperti disebutkan di atas, ketika , tidak setiap fungsional parametrik ϕ ( β ) dapat diperkirakan. Tapi, tunggu, apa definisi dari istilah yang dapat diperkirakan secara teknis? Tampaknya sulit untuk memberikan definisi yang jelas tanpa mengganggu aljabar linear kecil. Salah satu definisi, yang saya pikir paling intuitif, adalah sebagai berikut (dari referensi yang sama):rank(X)<kϕ(β)

Definisi 1. Fungsi parametrik dapat diperkirakan jika secara unik ditentukan oleh X β dalam arti bahwa ϕ ( β 1 ) = ϕ ( β 2 ) setiap kali β 1 , β 2R k memenuhi X β 1 = X β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2RkXβ1=Xβ2

Penafsiran. Definisi di atas menetapkan bahwa pemetaan dari manifold regresi ke ruang parameter ϕ harus satu-ke-satu, yang dijamin ketika peringkat ( X ) = k (yaitu, ketika X itu sendiri adalah satu-ke-satu). Ketika peringkat ( X ) < k , kita tahu bahwa ada β 1β 2 sehingga X β 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1β2Xβ1=Xβ2. Definisi yang dapat diperkirakan di atas dalam efek mengesampingkan fungsi-fungsi parametrik kekurangan struktural yang menghasilkan nilai yang berbeda sendiri bahkan dengan nilai yang sama pada , yang tidak masuk akal secara alami. Di sisi lain, fungsional parametrik yang diperkirakan ϕ ( ) memang memungkinkan kasus ϕ ( β 1 ) = ϕ ( β 2 ) dengan β 1β 2 , selama kondisi X β 1 = X β 2 terpenuhi.Mϕ()ϕ(β1)=ϕ(β2)β1β2Xβ1=Xβ2

Ada kondisi lain yang setara untuk memeriksa kemungkinan fungsional parametrik yang diberikan dalam referensi yang sama, Proposisi 8.4.

Setelah pengenalan latar belakang yang begitu jelas, mari kembali ke pertanyaan Anda.

A. sendiri tidak dapat diperkirakan karena peringkat ( X ) < 3 , yang mencakup X β 1 = X β 2 dengan β 1β 2 . Meskipun definisi di atas diberikan untuk fungsi skalar, ia mudah digeneralisasikan ke fungsional bernilai vektor.βrank(X)<3Xβ1=Xβ2β1β2

B. ϕ1(β)=θ1+θ3=(1,0,1)β is non-estimable. To wit, consider β1=(0,1,0) and β2=(1,1,1), which gives Xβ1=Xβ2 but ϕ1(β1)=0+0=0ϕ1(β2)=1+1=2.

C. ϕ2(β)=θ1θ3=(1,0,1)β is estimable. Because Xβ1=Xβ2 trivially implies θ1(1)θ3(1)=θ1(2)θ3(2), i.e., ϕ2(β1)=ϕ2(β2).

D. ϕ3(β)=θ2=(0,1,0)β is also estimable. The derivation from Xβ1=Xβ2 to ϕ3(β1)=ϕ3(β2) is also trivial.

After the estimability is verified, there is a theorem (Proposition 8.16, same reference) claims the Gauss-Markov property of ϕ(β). Based on that theorem, the second part of option C is incorrect. The best linear unbiased estimate is Y¯=(Y1+Y2+Y3+Y4)/4, by the theorem below.

Theorem. Let ϕ(β)=pβ be an estimable parametric functional, then its best linear unbiased estimate (aka, Gauss-Markov estimate) is ϕ(β^) for any solution β^ to the normal equations XXβ^=XY.

The proof goes as follows:

Proof. Straightforward calculation shows that the normal equations is

[404020404]β^=[111101011111]Y,
which, after simplification, is
[ϕ(β^)θ^2/2ϕ(β^)]=[Y¯(Y2Y4)/4Y¯],
i.e., ϕ(β^)=Y¯.

Therefore, option D is the only correct answer.


Addendum: The connection of estimability and identifiability

When I was at school, a professor briefly mentioned that the estimability of the parametric functional ϕ corresponds to the model identifiability. I took this claim for granted then. However, the equivalance needs to be spelled out more explicitly.

According to A.C. Davison's monograph Statistical Models p.144,

Definition 2. A parametric model in which each parameter θ generates a different distribution is called identifiable.

For linear model (1), regardless the spherity condition Var(ε)=σ2I, it can be reformulated as

(2)E[Y]=Xβ,βRk.

It is such a simple model that we only specified the first moment form of the response vector Y. When rank(X)=k, model (2) is identifiable since β1β2 implies Xβ1Xβ2 (the word "distribution" in the original definition, naturally reduces to "mean" under model (2).).

Now suppose that rank(X)<k and a given parametric functional ϕ(β)=pβ, how do we reconcile Definition 1 and Definition 2?

Well, by manipulating notations and words, we can show that (the "proof" is rather trivial) the estimability of ϕ(β) is equivalent to that the model (2) is identifiable when it is parametrized with parameter ϕ=ϕ(β)=pβ (the design matrix X is likely to change accordingly). To prove, suppose ϕ(β) is estimable so that Xβ1=Xβ2 implies pβ1=pβ2, by definition, this is ϕ1=ϕ2, hence model (3) is identifiable when indexing with ϕ. Conversely, suppose model (3) is identifiable so that Xβ1=Xβ2 implies ϕ1=ϕ2, which is trivially ϕ1(β)=ϕ2(β).

Intuitively, when X is reduced-ranked, the model with β is parameter redundant (too many parameters) hence a non-redundant lower-dimensional reparametrization (which could consist of a collection of linear functionals) is possible. When is such new representation possible? The key is estimability.

To illustrate the above statements, let's reconsider your example. We have verified parametric functionals ϕ2(β)=θ1θ3 and ϕ3(β)=θ2 are estimable. Therefore, we can rewrite the model (1) in terms of the reparametrized parameter (ϕ2,ϕ3) as follows

E[Y]=[10111011][ϕ2ϕ3]=X~γ.

Clearly, since X~ is full-ranked, the model with the new parameter γ is identifiable.


If you need a proof for the second part of option C, I will supplement my answer.
Zhanxiong

2
thanks! for such a detailed answer. Now, about the second part of C: I know that "best" relates to minimum variance. So, why not 14(Y1+Y2+Y3+Y4) is not "best"?
Stat_prob_001

2
Oh, I don't know why I thought it is the estimator in C. Actually (Y1+Y2+Y3+Y4)/4 is the best estimator. Will edit my answer
Zhanxiong

6

Apply the definitions.

I will provide details to demonstrate how you can use elementary techniques: you don't need to know any special theorems about estimation, nor will it be necessary to assume anything about the (marginal) distributions of the Yi. We will need to supply one missing assumption about the moments of their joint distribution.

Definitions

All linear estimates are of the form

tλ(Y)=i=14λiYi
for constants λ=(λi).

An estimator of θ1θ3 is unbiased if and only if its expectation is θ1θ3. By linearity of expectation,

θ1θ3=E[tλ(Y)]=i=14λiE[Yi]=λ1(θ1θ3)+λ2(θ1+θ2θ3)+λ3(θ1θ3)+λ4(θ1θ2θ3)=(λ1+λ2+λ3+λ4)(θ1θ3)+(λ2λ4)θ2.

Comparing coefficients of the unknown quantities θi reveals

(1)λ2λ4=0 and λ1+λ2+λ3+λ4=1.

In the context of linear unbiased estimation, "best" always means with least variance. The variance of tλ is

Var(tλ)=i=14λi2Var(Yi)+ij4λiλjCov(Yi,Yj).

The only way to make progress is to add an assumption about the covariances: most likely, the question intended to stipulate they are all zero. (This does not imply the Yi are independent. Furthermore, the problem can be solved by making any assumption that stipulates those covariances up to a common multiplicative constant. The solution depends on the covariance structure.)

Since Var(Yi)=σ2, we obtain

(2)Var(tλ)=σ2(λ12+λ22+λ32+λ42).

The problem therefore is to minimize (2) subject to constraints (1).

Solution

The constraints (1) permit us to express all the λi in terms of just two linear combinations of them. Let u=λ1λ3 and v=λ1+λ3 (which are linearly independent). These determine λ1 and λ3 while the constraints determine λ2 and λ4. All we have to do is minimize (2), which can be written

σ2(λ12+λ22+λ32+λ42)=σ24(2u2+(2v1)2+1).

No constraints apply to (u,v). Assume σ20 (so that the variables aren't just constants). Since u2 and (2v1)2 are smallest only when u=2v1=0, it is now obvious that the unique solution is

λ=(λ1,λ2,λ3,λ4)=(1/4,1/4,1/4,1/4).

Option (C) is false because it does not give the best unbiased linear estimator. Option (D), although it doesn't give full information, nevertheless is correct, because

θ2=E[t(0,1/2,0,1/2)(Y)]

is the expectation of a linear estimator.

It is easy to see that neither (A) nor (B) can be correct, because the space of expectations of linear estimators is generated by {θ2,θ1θ3} and none of θ1,θ3, or θ1+θ3 are in that space.

Consequently (D) is the unique correct answer.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.