Penjelasan gamblang untuk “stabilitas numerik inversi matriks” dalam regresi ridge dan perannya dalam mengurangi overfit


10

Saya mengerti bahwa kita dapat menggunakan regularisasi dalam masalah regresi kuadrat terkecil sebagai

w=argminw[(yXw)T(yXw)+λw2]

dan bahwa masalah ini memiliki solusi bentuk tertutup seperti:

w^=(XTX+λI)1XTy.

Kita melihat bahwa dalam persamaan ke-2, regularisasi hanya menambahkan λ ke diagonal XTX , yang dilakukan untuk meningkatkan stabilitas numerik inversi matriks.

Pemahaman 'kasar' saya saat ini tentang stabilitas numerik adalah bahwa jika suatu fungsi menjadi lebih 'stabil secara numerik' maka outputnya akan kurang dipengaruhi secara signifikan oleh noise pada inputnya. Saya mengalami kesulitan menghubungkan konsep peningkatan stabilitas numerik ini dengan gambaran yang lebih besar tentang bagaimana ia menghindari / mengurangi masalah overfitting.

Saya telah mencoba melihat Wikipedia dan beberapa situs web universitas lainnya, tetapi mereka tidak menjelaskan mengapa hal ini terjadi.


Regresi Ridge muncul di pikiran. tautan
EngrStudent

1
Anda mungkin menemukan beberapa nilai dalam diskusi (kebanyakan deskriptif / intuitif daripada aljabar) di Mengapa estimasi ridge menjadi lebih baik daripada OLS dengan menambahkan konstanta ke diagonal?
Glen_b -Reinstate Monica

Jawaban:


2

Dalam model linier , dengan asumsi kesalahan tidak berkorelasi dengan rata-rata nol dan memiliki peringkat kolom penuh, penaksir kuadrat terkecil adalah penaksir yang tidak bias untuk parameter . Namun, penaksir ini dapat memiliki varian yang tinggi. Misalnya, ketika dua kolom sangat berkorelasi.X ( X T X ) - 1 X T Y β XY=Xβ+ϵX(XTX)1XTYβX

Parameter penalti menjadikan penaksir yang bias dari , tetapi menurunkan variansnya. Juga, adalah harapan posterior dalam regresi Bayesian dengan sebelum . Dalam pengertian itu, kami memasukkan beberapa informasi ke dalam analisis yang mengatakan komponen seharusnya tidak terlalu jauh dari nol. Sekali lagi, ini membawa kita ke estimasi titik bias dari tetapi mengurangi varian estimasi.w β w β N ( 0 , 1λw^βw^ββββN(0,1λI)βββ

Dalam pengaturan di mana dimensi tinggi, katakan , kuadrat terkecil cocok akan cocok dengan data hampir sempurna. Meskipun tidak bias, estimasi ini akan sangat sensitif terhadap fluktuasi data karena dalam dimensi yang begitu tinggi, akan ada banyak poin dengan leverage yang tinggi. Dalam situasi seperti itu tanda dari beberapa komponen dapat ditentukan dengan satu pengamatan. Istilah penalti memiliki efek menyusutkan estimasi ini ke nol, yang dapat mengurangi MSE estimator dengan mengurangi varians.N p βXNpβ^

Sunting: Dalam tanggapan awal saya, saya memberikan tautan ke makalah yang relevan dan dengan tergesa-gesa saya menghapusnya. Ini dia: http://www.jarad.me/stat615/papers/Ridge_Regression_in_Practice.pdf


1
Dalam bentuknya yang sekarang, ini lebih merupakan komentar; apakah Anda pikir Anda bisa menyempurnakannya menjadi jawaban yang substantif?
Silverfish

Bagian bawah p. 5 kanan / atas hal. 6 kiri, yang berkaitan dengan Gambar 3, berisi diskusi utama untuk pertanyaan yang diajukan dalam posting ini.
Mark L. Stone

Ini semua benar, tetapi saya tidak yakin itu menjawab pertanyaan OP.
amoeba

amoeba, lihat komentar saya di atas, yang merujuk pada tautan yang kemudian diedit dari jawaban Eric Mittman , jarad.me/stat615/papers/Ridge_Regression_in_Practice.pdf .
Mark L. Stone

1

Stabilitas numerik dan overfitting dalam beberapa hal terkait tetapi berbeda masalah.

Masalah OLS klasik:

Pertimbangkan masalah kuadrat terkecil klasik:

minimize(over b)(yXb)T(yXb)

Solusinya adalah klasik . Gagasannya adalah bahwa dengan hukum sejumlah besar:b^=(XX)1(Xy)

limn1nXXE[xx]limn1nXyE[xy]

Karenanya estimasi OLS juga menyatu dengan . (Dalam istilah aljabar linier, ini adalah proyeksi linear variabel acak ke rentang linear variabel acak .) E[xx']-1E[xy]yx1,x2,...,xkb^E[xx]1E[xy]yx1,x2,,xk

Masalah?

Secara mekanis, apa yang salah? Apa masalah yang mungkin terjadi?

  1. Untuk sampel kecil, perkiraan sampel kami dari dan mungkin buruk.E [ x y ]E[xx]E[xy]
  2. Jika kolom adalah collinear (baik karena collinearity yang melekat atau ukuran sampel kecil), masalahnya akan memiliki rangkaian solusi! Solusinya mungkin tidak unik. X
    • Ini terjadi jika adalah kekurangan peringkat.E[xx]
    • Ini juga terjadi jika kekurangan peringkat karena ukuran sampel yang kecil relatif terhadap jumlah masalah regressor.XX

Masalah (1) dapat menyebabkan overfitting ketika perkiraan mulai mencerminkan pola dalam sampel yang tidak ada dalam populasi yang mendasarinya. Perkiraan tersebut mungkin mencerminkan pola dalam dan yang sebenarnya tidak ada di dan 1b^11nXXE[xx]E[xy]1nXyE[xx]E[xy]

Masalah (2) berarti solusi tidak unik. Bayangkan kita mencoba memperkirakan harga sepatu individual tetapi sepasang sepatu selalu dijual bersama. Ini adalah masalah yang keliru, tetapi katakanlah kita tetap melakukannya. Kita mungkin percaya bahwa harga sepatu kiri ditambah harga sepatu kanan sama dengan $ 50, tetapi bagaimana kita bisa menghasilkan harga individual? Apakah menetapkan harga sepatu kiri dan harga sepatu kanan ok? Bagaimana kita bisa memilih dari semua kemungkinan?p r = 5pl=45pr=5

Memperkenalkan penalti :L2

Sekarang pertimbangkan:

minimize(over b)(yXb)T(yXb)+λb2

Ini dapat membantu kami dengan kedua jenis masalah tersebut. The penalti mendorong perkiraan kami menuju nol. Ini berfungsi secara efektif sebagai Bayesian sebelum distribusi nilai koefisien berpusat di sekitar . Itu membantu dengan overfitting. Perkiraan kami akan mencerminkan data dan keyakinan awal kami bahwa hampir nol.b 0 bL2b0b

$ 50 L 2 p l = p r = 25L2 regularisasi juga selalu kita temukan solusi unik untuk masalah yang keliru. Jika kita tahu harga total sepatu kiri dan kanan menjadi , solusi yang juga meminimalkan norma adalah memilih .$50L2pl=pr=25

Apakah ini sihir? Tidak. Peraturan tidak sama dengan menambahkan data yang benar-benar memungkinkan kita untuk menjawab pertanyaan. regularisasi dalam beberapa hal mengadopsi pandangan bahwa jika Anda kekurangan data, pilih perkiraan lebih dekat ke . 0L20

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.