The matriks adalah "anihilator-" atau "pembuat residual" matriks terkait dengan matriks X . Ini disebut "annihilator" karena M X = 0 (untuk matriks X sendiri tentu saja). Apakah disebut "pembuat residual" karena M y = e , dalam regresi y = X β + e . M=I−X(X′X)−1X′XMX=0XMy=e^y=Xβ+e
Ini adalah matriks simetris dan idempoten. Ini digunakan dalam bukti teorema Gauss-Markov.
Juga, ini digunakan dalam teorema Frisch-Waugh-Lovell , dari mana seseorang dapat memperoleh hasil untuk "regresi dipartisi", yang mengatakan bahwa dalam model (dalam bentuk matriks)
y=X1β1+X2β2+u
kita punya itu
β^1=(X′1M2X1)−1(X′1M2)y
Sejak adalah idempoten kita dapat menulis ulang di atas denganM2
β^1=(X′1M2M2X1)−1(X′1M2M2)y
dan karena juga simetris yang kita milikiM2
β^1=([M2X1]′[M2X1])−1([M2X1]′[M2y]
Tapi ini adalah estimator kuadrat-terkecil dari model
[M2y]=[M2X1]β1+M2u
dan juga adalah residu dari kemunduran y pada matriks X 2 saja. M2yyX2
Dengan kata lain: 1) Jika kita regresi pada matriks X 2 saja, dan kemudian mundur pada residual dari estimasi ini pada matriks M 2 X 1 saja, β 1 perkiraan kita akan mendapatkan akan matematis sama dengan perkiraan kami akan diperoleh jika kita mundur y pada X 1 dan X 2 bersamaan pada saat yang sama, sebagai regresi berganda biasa. yX2M2X1β^1yX1X2
Sekarang, anggap bukan matriks tetapi hanya satu regresi, katakan x 1 . Maka M 2 x 1 adalah residu dari kemunduran variabel X 1 pada matriks regresi X 2 . Dan ini memberikan intuisi di sini: β 1 memberi kita efek yang "bagian dari X 1 yang terjelaskan oleh X 2 " telah di "bagian dari Y yang tersisa dijelaskan oleh X 2 ".X1x1M2x1X1X2β^1X1X2YX2
Ini adalah bagian simbol dari Aljabar Least-Squares klasik.