Jawaban ini menekankan verifikasi kemungkinan. Properti varians minimum adalah pertimbangan sekunder saya.
Untuk memulainya, rangkumlah informasi dalam bentuk matriks dari model linier sebagai berikut:
manaE
Y:=⎡⎣⎢⎢⎢Y1Y2Y3Y4⎤⎦⎥⎥⎥=⎡⎣⎢⎢⎢1111010−1−1−1−1−1⎤⎦⎥⎥⎥⎡⎣⎢θ1θ2θ3⎤⎦⎥+⎡⎣⎢⎢⎢ε1ε2ε3ε4⎤⎦⎥⎥⎥:=Xβ+ε,(1)
(untuk membahas estimasi, asumsi spherity tidak diperlukan. Tetapi untuk membahas properti Gauss-Markov, kita perlu mengasumsikan spherity
ε ).
E(ε)=0,Var(ε)=σ2Iε
Jika desain matriks adalah peringkat penuh, maka parameter asli β mengakui unik kuadrat-memperkirakan β = ( X ' X ) - 1 X ' Y . Akibatnya, setiap parameter φ , yang didefinisikan sebagai fungsi linear φ ( β ) dari β adalah diduga dalam arti bahwa hal itu dapat jelas diperkirakan oleh data melalui kuadrat-memperkirakan β sebagai φ = p ' β .Xββ^=(X′X)−1X′Yϕϕ(β)ββ^ϕ^=p′β^
Kehalusan muncul ketika tidak dari peringkat penuh. Untuk melakukan diskusi yang menyeluruh, kami memperbaiki beberapa notasi dan istilah pertama di bawah ini (Saya mengikuti konvensi Pendekatan Bebas Koordinat untuk Model Linier , Bagian 4.8. Beberapa istilah terdengar teknis tidak perlu). Selain itu, diskusi ini berlaku untuk model linear umum Y = X β + ε dengan X ∈ R n × k dan β ∈ R k .XY=Xβ+εX∈Rn×kβ∈Rk
- Sebuah berjenis regresi adalah koleksi vektor mean sebagai bervariasi dari R k :
M = { X β : β ∈ R k } .βRk
M={Xβ:β∈Rk}.
- Sebuah fungsional parametrik adalah fungsional linear dari β ,
φ ( β ) = p ' β = p 1 β 1 + ⋯ + p k β k .ϕ=ϕ(β)β
ϕ(β)=p′β=p1β1+⋯+pkβk.
Seperti disebutkan di atas, ketika , tidak setiap fungsional parametrik ϕ ( β ) dapat diperkirakan. Tapi, tunggu, apa definisi dari istilah yang dapat diperkirakan secara teknis? Tampaknya sulit untuk memberikan definisi yang jelas tanpa mengganggu aljabar linear kecil. Salah satu definisi, yang saya pikir paling intuitif, adalah sebagai berikut (dari referensi yang sama):rank(X)<kϕ(β)
Definisi 1. Fungsi parametrik dapat diperkirakan jika secara unik ditentukan oleh X β dalam arti bahwa ϕ ( β 1 ) = ϕ ( β 2 ) setiap kali β 1 , β 2 ∈ R k memenuhi X β 1 = X β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2∈RkXβ1=Xβ2
Penafsiran. Definisi di atas menetapkan bahwa pemetaan dari manifold regresi ke ruang parameter ϕ harus satu-ke-satu, yang dijamin ketika peringkat ( X ) = k (yaitu, ketika X itu sendiri adalah satu-ke-satu). Ketika peringkat ( X ) < k , kita tahu bahwa ada β 1 ≠ β 2 sehingga X β 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1≠β2Xβ1=Xβ2. Definisi yang dapat diperkirakan di atas dalam efek mengesampingkan fungsi-fungsi parametrik kekurangan struktural yang menghasilkan nilai yang berbeda sendiri bahkan dengan nilai yang sama pada , yang tidak masuk akal secara alami. Di sisi lain, fungsional parametrik yang diperkirakan ϕ ( ⋅ ) memang memungkinkan kasus ϕ ( β 1 ) = ϕ ( β 2 ) dengan β 1 ≠ β 2 , selama kondisi X β 1 = X β 2 terpenuhi.Mϕ(⋅)ϕ(β1)=ϕ(β2)β1≠β2Xβ1=Xβ2
Ada kondisi lain yang setara untuk memeriksa kemungkinan fungsional parametrik yang diberikan dalam referensi yang sama, Proposisi 8.4.
Setelah pengenalan latar belakang yang begitu jelas, mari kembali ke pertanyaan Anda.
A. sendiri tidak dapat diperkirakan karena peringkat ( X ) < 3 , yang mencakup X β 1 = X β 2 dengan β 1 ≠ β 2 . Meskipun definisi di atas diberikan untuk fungsi skalar, ia mudah digeneralisasikan ke fungsional bernilai vektor.βrank(X)<3Xβ1=Xβ2β1≠β2
B. ϕ1(β)=θ1+θ3=(1,0,1)′β is non-estimable. To wit, consider β1=(0,1,0)′ and β2=(1,1,1)′, which gives Xβ1=Xβ2 but ϕ1(β1)=0+0=0≠ϕ1(β2)=1+1=2.
C. ϕ2(β)=θ1−θ3=(1,0,−1)′β is estimable. Because Xβ1=Xβ2 trivially implies θ(1)1−θ(1)3=θ(2)1−θ(2)3, i.e., ϕ2(β1)=ϕ2(β2).
D. ϕ3(β)=θ2=(0,1,0)′β is also estimable. The derivation from Xβ1=Xβ2 to ϕ3(β1)=ϕ3(β2) is also trivial.
After the estimability is verified, there is a theorem (Proposition 8.16, same reference) claims the Gauss-Markov property of ϕ(β). Based on that theorem, the second part of option C is incorrect. The best linear unbiased estimate is Y¯=(Y1+Y2+Y3+Y4)/4, by the theorem below.
Theorem. Let ϕ(β)=p′β be an estimable parametric functional, then its best linear unbiased estimate (aka, Gauss-Markov estimate) is ϕ(β^) for any solution β^ to the normal equations X′Xβ^=X′Y.
The proof goes as follows:
Proof. Straightforward calculation shows that the normal equations is
⎡⎣⎢40−4020−404⎤⎦⎥β^=⎡⎣⎢10−111−110−11−1−1⎤⎦⎥Y,
which, after simplification, is
⎡⎣⎢⎢ϕ(β^)θ^2/2−ϕ(β^)⎤⎦⎥⎥=⎡⎣⎢Y¯(Y2−Y4)/4−Y¯⎤⎦⎥,
i.e., ϕ(β^)=Y¯.
Therefore, option D is the only correct answer.
Addendum: The connection of estimability and identifiability
When I was at school, a professor briefly mentioned that the estimability of the parametric functional ϕ corresponds to the model identifiability. I took this claim for granted then. However, the equivalance needs to be spelled out more explicitly.
According to A.C. Davison's monograph Statistical Models p.144,
Definition 2. A parametric model in which each parameter θ generates a different distribution is called identifiable.
For linear model (1), regardless the spherity condition Var(ε)=σ2I, it can be reformulated as
E[Y]=Xβ,β∈Rk.(2)
It is such a simple model that we only specified the first moment form of the response vector Y. When rank(X)=k, model (2) is identifiable since β1≠β2 implies Xβ1≠Xβ2 (the word "distribution" in the original definition, naturally reduces to
"mean" under model (2).).
Now suppose that rank(X)<k and a given parametric functional ϕ(β)=p′β, how do we reconcile Definition 1 and Definition 2?
Well, by manipulating notations and words, we can show that (the "proof" is rather trivial) the estimability of ϕ(β) is equivalent to that the model (2) is identifiable when it is parametrized with parameter ϕ=ϕ(β)=p′β (the design matrix X is likely to change accordingly). To prove, suppose ϕ(β) is estimable so that Xβ1=Xβ2 implies p′β1=p′β2, by definition, this is ϕ1=ϕ2, hence model (3) is identifiable when indexing with ϕ. Conversely, suppose model (3) is identifiable so that Xβ1=Xβ2 implies ϕ1=ϕ2, which is trivially ϕ1(β)=ϕ2(β).
Intuitively, when X is reduced-ranked, the model with β is parameter redundant (too many parameters) hence a non-redundant lower-dimensional reparametrization (which could consist of a collection of linear functionals) is possible. When is such new representation possible? The key is estimability.
To illustrate the above statements, let's reconsider your example. We have verified parametric functionals ϕ2(β)=θ1−θ3 and ϕ3(β)=θ2 are estimable. Therefore, we can rewrite the model (1) in terms of the reparametrized parameter (ϕ2,ϕ3)′ as follows
E[Y]=⎡⎣⎢⎢⎢1111010−1⎤⎦⎥⎥⎥[ϕ2ϕ3]=X~γ.
Clearly, since X~ is full-ranked, the model with the new parameter γ is identifiable.
self-study
tag atau seseorang akan datang dan menutup pertanyaan Anda.