Apakah tingkat Kesalahan fungsi Cembung parameter lambda Regularisasi?


11

Dalam memilih parameter regularisasi lambda di Ridge atau Lasso, metode yang disarankan adalah mencoba nilai-nilai lambda yang berbeda, mengukur kesalahan dalam Set Validasi dan akhirnya memilih nilai lambda yang mengembalikan kesalahan terendah.

Ini tidak jelas bagi saya jika fungsi f (lambda) = error adalah Convex. Mungkinkah seperti ini? Yaitu dapat kurva ini memiliki lebih dari satu minimum lokal (yang akan menyiratkan bahwa menemukan minimum Kesalahan di beberapa wilayah lambda tidak menghalangi kemungkinan bahwa di beberapa daerah lain ada lambda mengembalikan Kesalahan yang lebih kecil)

masukkan deskripsi gambar di sini

Nasihat Anda akan dihargai.

Jawaban:


11

Pertanyaan awal bertanya apakah fungsi kesalahan harus cembung. Tidak. Analisis yang disajikan di bawah ini dimaksudkan untuk memberikan beberapa wawasan dan intuisi tentang ini dan pertanyaan yang dimodifikasi, yang menanyakan apakah fungsi kesalahan dapat memiliki beberapa minimum lokal.

Secara intuitif, tidak perlu ada hubungan matematis yang diperlukan antara data dan set pelatihan. Kita harus dapat menemukan data pelatihan yang model awalnya buruk, menjadi lebih baik dengan beberapa regularisasi, dan kemudian menjadi lebih buruk lagi. Kurva kesalahan tidak dapat cembung dalam kasus itu - setidaknya tidak jika kita membuat parameter regularisasi bervariasi dari hingga .0

Perhatikan bahwa cembung tidak sama dengan memiliki minimum yang unik! Namun, gagasan serupa menyarankan beberapa minimum lokal dimungkinkan: selama regularisasi, pertama model yang cocok mungkin akan lebih baik untuk beberapa data pelatihan sementara tidak berubah secara signifikan untuk data pelatihan lainnya, dan kemudian nanti akan menjadi lebih baik untuk data pelatihan lainnya, dll. Yang sesuai campuran dari data pelatihan tersebut harus menghasilkan beberapa minimum lokal. Agar analisisnya sederhana, saya tidak akan berusaha menunjukkannya.

Edit (untuk menanggapi pertanyaan yang diubah)

Saya sangat yakin dengan analisis yang disajikan di bawah ini dan intuisi di baliknya sehingga saya mulai mencari contoh dengan cara yang paling kasar: Saya menghasilkan set data acak kecil, menjalankan Lasso pada mereka, menghitung total kuadrat kesalahan untuk satu set pelatihan kecil, dan merencanakan kurva kesalahannya. Beberapa upaya menghasilkan satu dengan dua minimum, yang akan saya jelaskan. Vektor berada dalam formulir untuk fitur dan dan respons .x 1 x 2 y(x1,x2,y)x1x2y

Data pelatihan

(1,1,0.1), (2,1,0.8), (1,2,1.2), (2,2,0.9)

Uji data

(1,1,0.2), (1,2,0.4)

Lasso dijalankan menggunakan glmnet::glmmetdi R, dengan semua argumen yang tersisa di default. Nilai pada sumbu x adalah kebalikan dari nilai-nilai yang dilaporkan oleh perangkat lunak tersebut (karena parameter parameter hukumannya dengan ).1 / λλ1/λ

Kurva kesalahan dengan beberapa minimum lokal

Angka


Analisis

Mari kita pertimbangkan setiap metode pengaturan parameter pemasangan untuk data dan respons terkait yang memiliki sifat-sifat ini umum untuk Ridge Regression dan Lasso:β=(β1,,βp)xiyi

  1. (Parameterisasi) Metode ini diparameterisasi oleh bilangan real , dengan model yang tidak diregulasi sesuai dengan .λ[0,)λ=0

  2. (Kontinuitas) Estimasi parameter tergantung terus-menerus pada dan nilai prediksi untuk semua fitur bervariasi secara terus menerus dengan .β^λβ^

  3. (Penyusutan) Sebagai , .λβ^0

  4. (Finiteness) Untuk vektor fitur , seperti , prediksi .xβ^0y^(x)=f(x,β^)0

  5. (Monoton error) Fungsi error membandingkan setiap nilai untuk nilai prediksi , , meningkat dengan perbedaansehingga, dengan beberapa penyalahgunaan notasi, kami dapat menyatakannya sebagai .yy^L(y,y^)|y^y|L(|y^y|)

(Nol dalam dapat digantikan oleh konstanta apa pun.)(4)

Misalkan datanya sedemikian sehingga estimasi parameter awal (tidak diregulasi) tidak nol. Mari kita membangun satu set data pelatihan yang terdiri dari satu pengamatan untuk yang . (Jika tidak mungkin menemukan seperti itu , maka model awal tidak akan terlalu menarik!) Set . (x0,y0)f(x0, β (0))0x0y0=f(x0, β (0))/2β^(0)(x0,y0)f(x0,β^(0))0x0y0=f(x0,β^(0))/2

e:λL(y0,f(x0,β^(λ))

  1. e(0)=L(y0,f(x0,β^(0))=L(y0,2y0)=L(|y0|)y0

  2. limλe(λ)=L(y0,0)=L(|y0|)λβ^(λ)0y^(x0)0

Dengan demikian, grafiknya terus-menerus menghubungkan dua titik akhir yang sama-sama tinggi (dan terbatas).

Gambar yang menunjukkan grafik $ e $ yang memungkinkan.

Secara kualitatif, ada tiga kemungkinan:

  • Prediksi untuk set pelatihan tidak pernah berubah. Ini tidak mungkin - hampir semua contoh yang Anda pilih tidak akan memiliki properti ini.

  • Beberapa prediksi menengah untuk lebih buruk daripada di awal atau dalam batas . Fungsi ini tidak boleh cembung.0<λ<λ=0λ

  • Semua prediksi menengah berada di antara dan . Kontinuitas menyiratkan akan ada setidaknya satu minimum , di mana harus cembung. Tetapi karena mendekati konstanta terbatas asimptotik, ia tidak dapat cembung untuk cukup besar .02y0eee(λ)λ

Garis putus-putus vertikal pada gambar menunjukkan di mana plot berubah dari cembung (di sebelah kiri) ke non-cembung (ke kanan). (Ada juga wilayah non-konveksitas dekat pada gambar ini, tetapi ini tidak akan menjadi kasus pada umumnya.)λ0


Terima kasih atas jawaban terperinci Anda. Jika mungkin tinjau pertanyaan saat saya mengedit dan memperbarui respons Anda.
rf7

Jawaban bagus (+1). Dalam praktiknya, saya pikir seringkali tidak banyak pelatihan dan uji poin data. Apakah kesimpulan dari jawaban ini berubah ketika ada cukup data pelatihan dan tes yang diambil dari distribusi yang sama (tetap dan cukup reguler)? Secara khusus, dalam skenario ini, adakah minimum lokal yang unik dengan probabilitas tinggi?
user795305

@ Ben Bukan jumlah poin tes yang penting: hasil ini sepenuhnya tergantung pada distribusi poin tes relatif terhadap distribusi poin pelatihan. Oleh karena itu masalah "dengan probabilitas tinggi" tidak akan dapat dijawab tanpa membuat beberapa asumsi spesifik tentang distribusi multivariat dari variabel regressor. Juga, dengan banyak variabel yang berperan, fenomena multi minimum lokal ini akan jauh lebih mungkin. Saya menduga bahwa pemilihan acak dari set tes besar (dengan banyak kali pengamatan sebagai variabel) mungkin sering memiliki min global yang unik.
whuber

1
@whuber Terima kasih! Saya setuju: distribusi (benar) antara pelatihan dan poin tes harus sama, dan perlu ada cukup sampel sehingga distribusi empiris dari pelatihan dan set tes memiliki kesepakatan. (Sepertinya saya mengutarakannya dengan buruk dalam komentar saya sebelumnya.) Misalnya, jika memiliki distribusi normal bersama (dengan kovarians nondegenerate), saya menduga probabilitas kurva kesalahan memiliki min lokal yang unik yang konvergen ke 1 (jika, katakanlah, ada sampel dalam pelatihan dan set tes dengan dengan tetap (atau bahkan meningkat relatif lambat terhadap ))n n p n(x,y)nnpn
user795305

0

Jawaban ini secara khusus menyangkut laso (dan tidak berlaku untuk regresi ridge.)

Mempersiapkan

Misalkan kita memiliki kovariat yang kita gunakan untuk memodelkan respons. Misalkan kita memiliki titik data pelatihan dan titik data validasi .n mpnm

Biarkan input pelatihan menjadi dan responsnya menjadi . Kami akan menggunakan laso pada data pelatihan ini. Yaitu, letakkan keluarga koefisien yang diperkirakan dari data pelatihan. Kami akan memilih untuk digunakan sebagai estimator kami berdasarkan kesalahannya pada set validasi, dengan input dan respons . DenganX(1)Rn×py(1)Rn

(1)β^λ=argminβRpy(1)X(1)β22+λβ1,
β^λX(2)Rm×py(2)Rm
(2)λ^=argminλR+y(2)X(2)β^λ22,
kami tertarik mempelajari fungsi kesalahan yang meningkatkan penduga data-driven kami .e(λ)=y(2)X(2)β^λ22β^λ^

Perhitungan

Sekarang, kita akan menghitung turunan kedua dari tujuan dalam persamaan , tanpa membuat setiap asumsi distribusi pada 's atau ' s. Menggunakan diferensiasi dan beberapa reorganisasi, kami (secara formal) menghitung bahwa (2)Xy

2λ2y(2)X(2)β^λ22=λ{2y(2)TX(2)λβ^λ+2β^λTX(2)TX(2)λβ^λ}=2y(2)TX(2)2λ2β^λ+2(β^λ)TX(2)TX(2)2λ2β^λ+2λβ^λTX(2)TX(2)Tλβ^λ=2{(y(2)X(2)β^λ)T2λ2β^λX(2)λβ^λ22}.
Karena adalah piecewise linear untuk (karena adalah kumpulan simpul hingga di jalur solusi laso), turunan adalah piecewise konstan dan nol untuk semua . Karenanya, fungsi non-negatif dari .β^λλKKλβ^λ2λ2β^λλK
2λ2y(2)X(2)β^λ22=2X(2)λβ^λ22,
λ

Kesimpulan

Jika kita mengasumsikan lebih lanjut bahwa diambil dari beberapa distribusi kontinu independen dari , vektor hampir pasti untuk . Oleh karena itu, fungsi kesalahan memiliki turunan kedua pada yang (hampir pasti) benar-benar positif. Namun, mengetahui bahwa kontinu, kita tahu bahwa kesalahan validasi kontinu.X(2){X(1),y(1)}X(2)λβ^λ0λ<λmaxe(λ)RKβ^λe(λ)

Akhirnya, dari laso ganda, kita tahu bahwa berkurang secara monoton ketika meningkat. Jika kita dapat menetapkan bahwa juga monotonik, maka cembung kuat dari mengikuti. Namun, ini berlaku dengan beberapa kemungkinan mendekati satu jika . (Aku akan segera mengisi detailnya di sini.)X(1)β^λ22λX(2)β^λ22e(λ)L(X(1))=L(X(2))


1
Anda hanya mengandalkan sebagai fungsi linear berkesinambungan piecewise dari untuk menyimpulkan benar-benar cembung. Mari kita lihat apakah pengurangan itu secara umum valid. Salah satu fungsi tersebut adalah(di mana menunjukkan pembulatan ke bilangan bulat terdekat). Misalkan dan , sehingga . Fungsi kesalahan ini memiliki banyak minimum lokal. Itu bukan cembung - itu hanya cembung di mana-mana kecuali pada titik-titik terisolasi! Itu membuat saya percaya bahwa Anda membuat asumsi tambahan yang tidak disebutkan. β^λe^β^(λ)=|λ[λ]|[]y(2)=0X(2)=1e^(λ)=β^(λ)2
whuber

@whuber Poin bagus! Terima kasih! Saya akan segera mengedit posting ini.
user795305
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.