Saya memberikan jawaban lain dengan lebih detail.
Dalam model regresi linier standar (dalam bentuk matriks):
Y=Xβ+ε
Estimasi OLS adalah sebagai berikut
β^=(XTX)−1XTY.
Perbedaannya adalah
Var(β^)=(XTX)−1XTVar(Y)X(XTX)−1.
Asumsi biasa untuk regresi adalah itu
Var(Y)=σ2I,
dimana Iadalah matriks identitas. Kemudian
Var(β^)=σ2(XTX)−1.
Sekarang dalam kasus Anda, Anda memiliki dua model:
Yi=Miδi+ϵi
dan
Γ=Lc+u,
dimana
- YTi=(Yi1,...,YiT),
- Mi=[1,Xi,D], dengan XTi=(Xi1,...,XiT), DT=(D1,...,DT)
- δTi=(αi,βi,γi)
- ϵTi=(ϵi1,...,ϵiT)
- ΓT=(γ1,...,γn)
- L=[1,Z], dengan ZT=(Z1,...,Zn)
- cT=(a,b)
- uT=(u1,...,uN).
Perhatikan bahwa Anda menyatakan model kedua untuk perkiraan dariγ, yang tidak biasa, maka saya menyatakan kembali dalam bentuk biasa, untuk "benar" γ.
Mari kita tuliskan matriks kovarians untuk estimasi koefisien OLS c:
Var(c^)=(LTL)−1LTVar(Γ)L(LTL)−1
Masalahnya adalah bahwa kita tidak memperhatikan Γ. Kami mengamati taksiranΓ^. γ^i adalah bagian dari vektor
δ^i=δi+(MTiMi)−1MTiϵi.
Asumsikan bahwa δi bersifat acak dan independen dengan ϵi dan Mi. Ini tentu berlaku untukγi jadi kami tidak kehilangan apa pun jika kami memperluas ini untuk elemen lain dari δi.
Mari kita susun semua δ^i di atas satu sama lain:
δ^T=[δT1,...,δTN]
dan menjelajahi varians dari δ^:
Var(δ^)=⎡⎣⎢⎢Var(δ^1)…cov(δ^n,δ^1)cov(δ^1,δ^2)…cov(δ^n,δ2)………cov(δ^1,δ^N)…Var(δ^N)⎤⎦⎥⎥
Asumsikan bahwa Var(ϵi)=σ2ϵI dan itu EϵiϵTj=0. Untuki≠j kita punya
cov(δ^i,δ^j)=cov(δi,δj)+cov((MTiMi)−1MTiϵi,(MTjMj)−1MTjϵj)=(MTiMi)−1MTiE(ϵiϵTj)Mj(MTjMj)−1=0
Untuk elemen diagonal yang kita miliki
Var(δ^i)=Var(δi)+σ2ϵ(MTiMi)−1
Mari kita kembali ke varian c^. Karena kita gantikanΓ^ dari pada Γ variansnya adalah sebagai berikut
Var(c^)=(LTL)−1LTVar(Γ^)L(LTL)−1,
Kita bisa mengekstrak Var(Γ^) dari Var(δ^) dengan memilih elemen yang sesuai:
Var(Γ^)=Var(Γ)+diag(g1,...,gn)
dimana gi adalah elemen dari σ2ϵ(MTiMi)−1 sesuai dengan Var(γ^i). Setiapgi berbeda dengan gj karena mereka sesuai dengan yang berbeda Xit dan Xjt yang tidak dianggap sama.
Jadi kita mendapatkan hasil yang mengejutkan, bahwa secara aljabar bahkan jika kita mengasumsikan semua sifat yang diperlukan, matriks kovarians yang dihasilkan setidaknya secara aljabar tidak akan sama dengan matriks kovarians OLS biasa, karena untuk itu kita memerlukan itu Var(Γ^) adalah matriks identitas waktu konstan yang jelas tidak.
Semua rumus di atas diturunkan dengan asumsi itu Xij konstan, sehingga mereka tergantung pada Xij. Ini berarti kita benar-benar menghitungVar(Γ^|X). Dengan menempatkan asumsi tambahanXij, Saya pikir akan mungkin untuk menunjukkan bahwa varian tanpa syarat adalah OK.
Asumsi independensi ditempatkan pada ϵi bisa juga santai untuk tidak berkorelasi.
Juga dimungkinkan untuk menggunakan studi simulasi untuk melihat bagaimana perbedaan matriks kovarians jika kita gunakan Γ^ dari pada Γ.