Pertimbangkan polinomial:
β0+β1x +β2x2+ ... +βkxk
Perhatikan bahwa polinomialnya non-linear xtetapi itu linear dalam . Jika kami mencoba memperkirakan , ini adalah regresi linier!
Linearitas dalam adalah apa masalah. Ketika memperkirakan persamaan di atas dengan kuadrat terkecil, semua hasil regresi linier akan berlaku.ββ
ysaya=β0+β1xsaya+β2x2saya+ ... +βkxksaya+ϵsaya
β = (β0,β1, ... ,βk)
Biarkan menjadi jumlah total kuadrat, menjadi jumlah kuadrat yang dijelaskan, dan menjadi jumlah residu kuadrat. The koefisien determinasi didefinisikan sebagai:S S TS S ES S R R2
R2= 1 -S S RS S T
Dan hasil regresi linier yang memberikan interpretasi yang lazim sebagai fraksi varian yang dijelaskan oleh model.S S T = S S E + S S RR2
SST = SSE + SSR: Kapan itu benar dan kapan itu tidak benar?
Biarkan menjadi nilai perkiraan dan biarkan menjadi residual. Selanjutnya, mari kita mendefinisikan nilai perkiraan yang direndahkan sebagai .y^sayaysayaesaya=ysaya-y^sayafsaya=y^saya-y¯
Biarkan menunjukkan produk dalam . Secara sepele kita memiliki:
Perhatikan bahwa adalah produk dalam yang valid. Maka kita memiliki:⟨ . , . ⟩
⟨ f+ e , f+ E ⟩= ⟨ F, f⟩ + 2 ⟨ f, E ⟩ + ⟨ e , e ⟩= ⟨ F, f⟩ + ⟨ E , e ⟩jika f dan e orthogonal, yaitu produk dalam mereka adalah 0
⟨ A , b ⟩ =∑sayaSebuahsayabsaya
- ⟨ f+ e , f+ E ⟩ =∑saya(ysaya-y¯)2 adalah jumlah total dari kotak (SST).
- ⟨ f, f⟩ =∑saya(y^saya-y¯)2 adalah jumlah kotak yang dijelaskan (SSE).
- ⟨ E , e ⟩ =∑saya(ysaya-y^saya)2 adalah jumlah sisa kuadrat (SSR).
Jadi benar jika direndahkan perkiraan adalah orthogonal untuk sisa . Ini benar dalam regresi linear kuadrat biasa setiap kali konstanta dimasukkan dalam regresi. Interpretasi lain dari kuadrat terkecil biasa adalah bahwa Anda memproyeksikan ke dalam rentang linier dari regresi, maka residu adalah ortogonal ke ruang itu dengan konstruksi. Ortogonalitas variabel sisi kanan dan residu tidak secara umum benar untuk prakiraan diperoleh dengan cara lain.SST= SSE+ SSRfe yy^saya