Cara alternatif untuk mendapatkan koefisien OLS


8

Dalam pertanyaan saya yang lain , seorang penjawab menggunakan derivasi koefisien OLS berikut:

Kami memiliki model: mana Z tidak teramati. Lalu kita punya: plim

Y=X1β+X2β2+Zγ+ε,
ZmanaX1 =M2X1danM2=[I-X2(X2 X2)-1X2 ].
Plimβ^1=β1+γCHaiv(X1,Z)VSebuahr(X1)=β1,
X1=M.2X1M.2=[saya-X2(X2X2)-1X2]

Ini terlihat berbeda dari yang pernah saya lihat di Econometrics. Apakah ada eksposisi yang lebih eksplisit dari derivasi ini? Apakah ada nama untuk M 2 matriks?β=(XX)-1XYM.2


Saya cukup yakin itu dijelaskan dalam catatan kuliah Hansen, tetapi saya tidak memilikinya di tangan saya sekarang.
FooBar

Jawaban:


8

The matriks adalah "anihilator-" atau "pembuat residual" matriks terkait dengan matriks X . Ini disebut "annihilator" karena M X = 0 (untuk matriks X sendiri tentu saja). Apakah disebut "pembuat residual" karena M y = e , dalam regresi y = X β + e . M=IX(XX)1XXMX=0XMy=e^y=Xβ+e

Ini adalah matriks simetris dan idempoten. Ini digunakan dalam bukti teorema Gauss-Markov.

Juga, ini digunakan dalam teorema Frisch-Waugh-Lovell , dari mana seseorang dapat memperoleh hasil untuk "regresi dipartisi", yang mengatakan bahwa dalam model (dalam bentuk matriks)

y=X1β1+X2β2+u

kita punya itu

β^1=(X1M2X1)1(X1M2)y

Sejak adalah idempoten kita dapat menulis ulang di atas denganM2

β^1=(X1M2M2X1)1(X1M2M2)y

dan karena juga simetris yang kita milikiM2

β^1=([M2X1][M2X1])1([M2X1][M2y]

Tapi ini adalah estimator kuadrat-terkecil dari model

[M2y]=[M2X1]β1+M2u

dan juga adalah residu dari kemunduran y pada matriks X 2 saja. M2yyX2

Dengan kata lain: 1) Jika kita regresi pada matriks X 2 saja, dan kemudian mundur pada residual dari estimasi ini pada matriks M 2 X 1 saja, β 1 perkiraan kita akan mendapatkan akan matematis sama dengan perkiraan kami akan diperoleh jika kita mundur y pada X 1 dan X 2 bersamaan pada saat yang sama, sebagai regresi berganda biasa. yX2M2X1β^1yX1X2

Sekarang, anggap bukan matriks tetapi hanya satu regresi, katakan x 1 . Maka M 2 x 1 adalah residu dari kemunduran variabel X 1 pada matriks regresi X 2 . Dan ini memberikan intuisi di sini: β 1 memberi kita efek yang "bagian dari X 1 yang terjelaskan oleh X 2 " telah di "bagian dari Y yang tersisa dijelaskan oleh X 2 ".X1x1M2x1X1X2β^1X1X2YX2

Ini adalah bagian simbol dari Aljabar Least-Squares klasik.


Mulai menjawab, tetapi saya memiliki banyak tumpang tindih dengan jawaban ini. Anda dapat menemukan banyak informasi ini di Bab 3.2.4 edisi ke-7 "Analisis Ekonometrik" oleh Bill Greene.
cc7768

@ cc7768 Ya, itu sumber yang bagus untuk aljabar kuadrat-terkecil. Tapi jangan ragu untuk mengirim materi tambahan. Misalnya, pada dasarnya jawaban saya hanya mencakup pertanyaan kedua OP.
Alecos Papadopoulos

@AlecosPapadopoulos Anda mengatakan bahwa jika kita mundur pada X 1 , kita juga mendapatkan β 1 . Tetapi bukankah persamaannya mengatakan, kemunduran M 2 y pada M 2 X 1 ? M.2yX1β^1M.2yM.2X1
Heisenberg

@ Heisenberg Benar. Salah ketik. Memperbaikinya, dan menambahkan sedikit lagi.
Alecos Papadopoulos
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.