Dalam regresi linier sederhana, dari mana formula untuk varian dari residual berasal?


21

Menurut teks yang saya gunakan, rumus untuk varian dari sisa diberikan oleh:ith

σ2(11n(xix¯)2Sxx)

Saya menemukan ini sulit untuk percaya karena residual adalah perbedaan antara nilai diamati dan nilai dipasang; jika seseorang menghitung varians dari perbedaan, paling tidak saya akan mengharapkan beberapa "plus" dalam ekspresi yang dihasilkan. Setiap bantuan dalam memahami derivasi akan dihargai.ithithith


Apakah mungkin bahwa beberapa tanda " " dalam teks sedang salah diterjemahkan (atau salah dibaca) sebagai tanda " "? +-
whuber

Saya sudah memikirkan ini, tetapi itu terjadi dua kali dalam teks (2 bab berbeda) jadi saya pikir itu tidak mungkin. Tentu saja, derivasi formula akan membantu! :)
Eric

Negatif adalah hasil dari korelasi positif antara pengamatan dan nilai yang dipasang, yang mengurangi varians perbedaan.
Glen_b -Reinstate Monica

@ Glen Terima kasih telah menjelaskan mengapa rumus ini masuk akal, bersama dengan derivasi matriks Anda di bawah ini.
Eric

Jawaban:


27

Intuisi tentang tanda-tanda "plus" yang terkait dengan varians (dari fakta bahwa bahkan ketika kita menghitung varians dari perbedaan variabel acak independen, kami menambahkan variansnya) benar tetapi tidak lengkap secara fatal: jika variabel acak yang terlibat tidak independen , maka kovarian juga terlibat - dan kovarian mungkin negatif. Ada ungkapan yang hampir seperti ungkapan dalam pertanyaan yang dianggap "harus" oleh OP (dan saya), dan itu adalah varian dari kesalahan prediksi , yang menyatakannya , di mana :y 0 = β 0 + β 1 x 0 + u 0e0=y0y^0y0=β0+β1x0+u0

Var(e0)=σ2(1+1n+(x0x¯)2Sxx)

Perbedaan penting antara varians dari kesalahan prediksi dan varians dari estimasi kesalahan (yaitu dari sisa), adalah bahwa istilah kesalahan dari pengamatan diprediksi tidak berkorelasi dengan estimator , karena nilai itu tidak digunakan dalam membangun estimator dan menghitung estimasi, menjadi nilai out-of-sample.y0

Aljabar untuk keduanya berlangsung dengan cara yang persis sama hingga titik (menggunakan bukan ), tetapi kemudian menyimpang. Secara khusus:i0i

Dalam regresi linier sederhana , , varian dari estimator masih Var ( u i ) = σ 2 β = ( β 0 , ß 1 ) 'yi=β0+β1xi+uiVar(ui)=σ2β^=(β^0,β^1)

Var(β^)=σ2(XX)1

Kita punya

XX=[nxsayaxsayaxsaya2]

dan sebagainya

(XX)1=[xsaya2-xsaya-xsayan][nxsaya2-(xsaya)2]-1

Kita punya

[nxi2(xi)2]=[nxi2n2x¯2]=n[xi2nx¯2]=n(xi2x¯2)nSxx

Begitu

(XX)1=[(1/n)xi2x¯x¯1](1/Sxx)

yang berarti itu

Var(β^0)=σ2(1nxi2) (1/Sxx)=σ2nSxx+nx¯2Sxx=σ2(1n+x¯2Sxx)

Var(β^1)=σ2(1/Sxx)

Cov(β^0,β^1)=-σ2(x¯/Sxx)

The residu -th didefinisikan sebagaisaya

kamu^saya=ysaya-y^saya=(β0-β^0)+(β1-β^1)xsaya+kamusaya

Koefisien yang sebenarnya diperlakukan sebagai konstanta, regressor adalah tetap (atau tergantung pada itu), dan memiliki nol kovarians dengan istilah kesalahan, tetapi para estimator berkorelasi dengan istilah kesalahan, karena estimator mengandung variabel dependen, dan variabel dependen berisi istilah kesalahan. Jadi kita punya

Var(u^i)=[Var(ui)+Var(β^0)+xi2Var(β^1)+2xsayaCov(β^0,β^1)]+2Cov([(β0-β^0)+(β1-β^1)xsaya],kamusaya)

=[σ2+σ2(1n+x¯2Sxx)+xsaya2σ2(1/Sxx)+2Cov([(β0-β^0)+(β1-β^1)xsaya],kamusaya)

Kemasi sedikit untuk mendapatkan

Var(kamu^saya)=[σ2(1+1n+(xsaya-x¯)2Sxx)]+2Cov([(β0-β^0)+(β1-β^1)xsaya],kamusaya)

Istilah dalam tanda kurung besar memiliki struktur yang persis sama dengan varians dari kesalahan prediksi, dengan satu-satunya perubahan adalah bahwa alih-alih kita akan memiliki (dan varians akan menjadi dari dan bukan dari ). Istilah kovarians terakhir adalah nol untuk kesalahan prediksi karena dan karenanya adalah tidak termasuk dalam estimator, tetapi tidak nol untuk kesalahan estimasi karena dan karenanya merupakan bagian dari sampel dan sehingga termasuk dalam penduga Kita punyax 0 e 0 u i y 0 u 0 y i u ixsayax0e0kamu^sayay0kamu0ysayakamusaya

2Cov([(β0-β^0)+(β1-β^1)xsaya],kamusaya)=2E([(β0-β^0)+(β1-β^1)xsaya]kamusaya)

=2E(β^0ui)2xiE(β^1ui)=2E([y¯β^1x¯]ui)2xiE(β^1ui)

substitusi terakhir dari cara dihitung. Melanjutkan,β^0

...=2E(y¯ui)2(xix¯)E(β^1ui)=2σ2n2(xix¯)E[(xix¯)(yiy¯)Sxxui]

=2σ2n2(xix¯)Sxx[(xix¯)E(yiuiy¯ui)]

=2σ2n2(xix¯)Sxx[σ2nji(xjx¯)+(xix¯)σ2(11n)]

=2σ2n2(xix¯)Sxx[σ2n(xix¯)+(xix¯)σ2]

=2σ2n2(xix¯)Sxx[0+(xix¯)σ2]=2σ2n2σ2(xix¯)2Sxx

Memasukkan ini ke dalam ekspresi untuk varian residual, kami dapatkan

Var(u^i)=σ2(11n(xix¯)2Sxx)

Jadi topi ke teks OP menggunakan.

(Saya telah melewatkan beberapa manipulasi aljabar, tidak heran aljabar OLS semakin jarang diajarkan saat ini ...)

BEBERAPA INTUISI

Jadi tampaknya apa yang berfungsi "terhadap" kami (varian lebih besar) saat memprediksi, berfungsi "untuk kami" (varian lebih rendah) saat memperkirakan. Ini adalah titik awal yang baik bagi seseorang untuk merenungkan mengapa kecocokan yang sangat baik mungkin merupakan pertanda buruk untuk kemampuan prediksi model (betapapun kontra-intuitif ini mungkin terdengar ...).
Fakta bahwa kami memperkirakan nilai yang diharapkan dari regressor, menurunkan varians sebesar . Mengapa? karena dengan memperkirakan , kami "menutup mata" pada beberapa variabilitas kesalahan yang ada dalam sampel, karena pada dasarnya kami memperkirakan nilai yang diharapkan. Selain itu, semakin besar penyimpangan pengamatan regressor dari sampel rata-rata regressor,1/nvarians dari residu yang terkait dengan pengamatan ini akan menjadi ... semakin pengamatan menyimpang, semakin sedikit menyimpang residu ... Ini adalah variabilitas dari regressor yang bekerja untuk kita, dengan "mengambil tempat" dari kesalahan yang tidak diketahui- variabilitas.

Tapi itu bagus untuk estimasi . Untuk prediksi , hal-hal yang sama berbalik melawan kita: sekarang, dengan tidak memperhitungkan, betapapun tidak sempurna, variabilitas dalam (karena kita ingin memprediksikannya), penaksir tidak sempurna kita yang diperoleh dari sampel menunjukkan kelemahan mereka: kami memperkirakan sampel berarti, kita tidak tahu nilai yang diharapkan benar-varians meningkat. Kami memiliki yang jauh dari mean sampel yang dihitung dari pengamatan lain -juga buruk, varians kesalahan prediksi kami mendapat dorongan lain, karena prediksi akan cenderung tersesat ... lebih bahasa ilmiah "prediktor optimal dalam arti mengurangi varians kesalahan prediksi, mewakili ay0x0 y^0penyusutan terhadap rata-rata variabel berdasarkan prediksi ". Kami tidak mencoba untuk mereplikasi variabilitas variabel dependen -kami hanya mencoba untuk tetap" dekat dengan rata-rata ".


Terima kasih atas jawaban yang sangat jelas! Saya senang bahwa "intuisi" saya benar.
Eric

Alecos, saya benar-benar tidak berpikir ini benar.
Glen_b -Reinstate Monica

@Alecos kesalahannya adalah dalam mengambil estimasi parameter untuk tidak berkorelasi dengan istilah kesalahan. Bagian ini: tidak benar. Var(kamu^saya)=Var(kamusaya)+Var(β^0)+xsaya2Var(β^1)+2xsayaCov(β^0,β^1)
Glen_b -Reinstate Monica

@ Eric, saya minta maaf karena telah menyesatkan Anda sebelumnya. Saya telah mencoba memberikan beberapa intuisi untuk kedua formula.
Alecos Papadopoulos

+1 Anda dapat melihat mengapa saya melakukan kasus regresi berganda untuk ini ... terima kasih telah melakukan upaya ekstra untuk melakukan kasus regresi sederhana.
Glen_b -Reinstate Monica

19

Maaf untuk jawaban yang agak singkat, mungkin terlalu abstrak dan kurang eksposisi intuitif yang diinginkan, tetapi saya akan mencoba untuk kembali dan menambahkan beberapa detail lagi nanti. Setidaknya itu pendek.

Diberi ,H=X(XTX)-1XT

Var(y-y^)=Var((saya-H)y)=(saya-H)Var(y)(saya-H)T=σ2(saya-H)2=σ2(saya-H)

Karenanya

Var(ysaya-y^saya)=σ2(1-hsayasaya)

Dalam kasus regresi linier sederhana ... ini memberikan jawaban dalam pertanyaan Anda.

Jawaban ini juga masuk akal: karena berkorelasi positif dengan , varians perbedaannya harus lebih kecil dari jumlah varians.y^sayaysaya

-

Edit: Penjelasan mengapa adalah idempoten .(saya-H)

(i) adalah idempoten:H

H2=X(XTX)-1XTX(XTX)-1XT =X [(XTX)-1XTX] (XTX)-1XT=X(XTX)-1XT=H

(ii)(saya-H)2=saya2-sayaH-Hsaya+H2=saya-2H+H=saya-H


1
Ini adalah derivasi yang sangat bagus untuk kesederhanaannya, meskipun satu langkah yang tidak jelas bagi saya adalah mengapa . Mungkin ketika Anda sedikit memperluas jawaban Anda, seperti yang Anda rencanakan, Anda bisa mengatakan sesuatu tentang itu? (saya-H)2=(saya-H)
Jake Westfall

@Jake Menambahkan beberapa baris di akhir
Glen_b -Reinstate Monica
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.