Bukti persamaan ekuivalen regresi ridge


15

Saya telah membaca buku-buku paling populer dalam pembelajaran statistik

1- Unsur-unsur pembelajaran statistik.

2- Pengantar pembelajaran statistik .

Keduanya menyebutkan bahwa regresi ridge memiliki dua formula yang setara. Apakah ada bukti matematis yang dapat dimengerti dari hasil ini?

Saya juga melewati Cross Validated , tetapi saya tidak dapat menemukan bukti yang pasti di sana.

Lebih lanjut, akankah LASSO menikmati jenis bukti yang sama?

masukkan deskripsi gambar di sini



1
Lasso bukan bentuk regresi ridge.
Xi'an

@jeza, bisakah Anda menjelaskan apa yang hilang dalam jawaban saya? Benar-benar berasal semua dapat diturunkan tentang koneksi.
Royi

@jeza, bisakah kamu spesifik? Kecuali Anda tahu konsep Lagrangian untuk masalah terbatas, sulit untuk memberikan jawaban yang ringkas.
Royi

1
@jeza, masalah optimisasi terbatas dapat dikonversi menjadi optimasi fungsi Lagrangian / kondisi KKT (seperti yang dijelaskan dalam jawaban saat ini). Prinsip ini sudah memiliki banyak penjelasan sederhana yang berbeda di seluruh internet. Ke arah mana diperlukan lebih banyak penjelasan tentang bukti? Penjelasan / bukti pengali / fungsi Lagrangian, penjelasan / bukti bagaimana masalah ini merupakan kasus optimasi yang berhubungan dengan metode Lagrange, perbedaan KKT / Lagrange, penjelasan tentang prinsip regularisasi, dll?
Sextus Empiricus

Jawaban:


19

Regresi Ridge klasik ( Regulasi Tikhonov ) diberikan oleh:

argminx12xy22+λx22

Klaim di atas adalah bahwa masalah berikut ini setara:

argminx12xy22subject tox22t

Mari kita mendefinisikan x sebagai solusi optimal dari masalah pertama dan ~ x sebagai solusi optimal dari masalah kedua.x^x~

Klaim berarti kesetaraan yang t,λ0:x^=x~ .
Yaitu Anda selalu dapat memiliki sepasangt danλ0 sehingga solusi dari masalahnya adalah sama.

Bagaimana kita bisa menemukan pasangan?
Nah, dengan menyelesaikan masalah dan melihat sifat-sifat solusinya.
Kedua masalah tersebut cembung dan halus sehingga harus membuat semuanya lebih sederhana.

Solusi untuk masalah pertama diberikan pada titik gradien hilang yang berarti:

x^y+2λx^=0

The KKT Kondisi negara-negara Masalah kedua:

x~y+2μx~=0

dan

μ(x~22t)=0

Persamaan terakhir menunjukkan bahwa μ=0 atau x~22=t.

Perhatikan bahwa 2 persamaan dasar adalah setara.
yaitu x^=x~ danμ=λkedua persamaan terus.

Jadi itu berarti bahwa dalam kasus y22t seseorang harus menetapkan μ=0 yang berarti bahwa untuk t cukup besar agar keduanya setara, harus ditetapkan λ=0 .

Pada kasus lain, seseorang harus menemukan μ mana:

yt(I+2μI)1(I+2μI)1y=t

Ini pada dasarnya ketika x~22=t

Setelah Anda menemukan bahwa μ solusi akan bertabrakan.

Mengenai kasus L1 (LASSO), yah, ia bekerja dengan ide yang sama.
Satu-satunya perbedaan adalah kita tidak memiliki solusi yang tertutup sehingga memperoleh koneksi lebih sulit.

Lihat jawaban saya di StackExchange Cross Validated Q291962 dan StackExchange Signal Processing Q21730 - Signifikansi λ dalam Basis Pursuit .

Berkomentar
Apa yang sebenarnya terjadi?
Dalam kedua masalah, x mencoba sedekat mungkin dengan y .
Dalam kasus pertama, x=y akan menghapus istilah pertama (The L2 ) dan dalam kasus kedua itu akan membuat fungsi objektif menghilang.
Perbedaannya adalah bahwa dalam kasus pertama kita harus menyeimbangkan Norma L2 dari x . Sebagai λ semakin tinggi keseimbangan berarti Anda harus membuat x lebih kecil.
Dalam kasus kedua ada dinding, Anda membawa x lebih dekat dan lebih dekat ke ysampai Anda menabrak dinding yang merupakan kendala pada Norm (By t ) -nya .
Jika temboknya cukup jauh (Nilai t ) dan cukup tergantung pada norma y maka saya tidak memiliki makna, sama seperti λ relevan hanya nilainya dikalikan dengan norma y mulai bermakna.
Koneksi yang tepat adalah oleh Lagrangian yang disebutkan di atas.

Sumber daya

Saya menemukan makalah ini hari ini (03/04/2019):


apakah yang setara berarti bahwa \ lambda dan \ t harus sama. Karena saya tidak bisa melihat itu di buktinya. Terima kasih
jeza

@jeza, Seperti yang saya tulis di atas, untuk ada λ 0 (Tidak harus sama dengantλ0 tetapi fungsi t dan data y ) sehingga solusi dari dua bentuk itu sama. tty
Royi

3
@jeza, keduanya & t pada dasarnya adalah parameter gratis di sini. Setelah Anda menentukan, katakanlah, λ , yang menghasilkan solusi optimal spesifik. Tapi t tetap menjadi parameter gratis. Jadi pada titik ini klaimnya adalah bahwa ada beberapa nilai t yang akan menghasilkan solusi optimal yang sama. Pada dasarnya tidak ada kendala pada apa yang t harus; tidak seperti itu harus menjadi fungsi tetap λ , seperti t = λ / 2 atau sesuatu. λtλtttλt=λ/2
gung - Reinstate Monica

@Royi, saya ingin tahu 1 - mengapa rumus Anda memiliki (1/2), sedangkan formula yang dimaksud tidak? 2- apakah menggunakan KKT untuk menunjukkan kesetaraan dari kedua formula? 3 - jika ya, saya masih tidak bisa melihat kesetaraan itu. Saya tidak yakin tetapi apa yang saya harapkan untuk dilihat adalah bukti untuk menunjukkan bahwa formula satu = formula dua.
jeza

1. Lebih mudah ketika Anda membedakan istilah LS. Anda dapat memindahkan bentuk saya ke OP λ dengan faktor dua. 2. Saya menggunakan KKT untuk kasus ke-2. Kasus pertama tidak memiliki kendala, maka Anda bisa menyelesaikannya. 3. Tidak ada persamaan bentuk tertutup di antara mereka. Saya menunjukkan logika dan bagaimana Anda dapat membuat grafik yang menghubungkan mereka. Tetapi ketika saya menulis itu akan berubah untuk setiap y (Ini tergantung data). λλy
Royi

9

Pendekatan yang kurang tepat secara matematis, tetapi mungkin lebih intuitif, untuk memahami apa yang sedang terjadi adalah memulai dengan versi kendala (persamaan 3.42 dalam pertanyaan) dan menyelesaikannya menggunakan metode "Pengali Lagrange" ( https: //en.wikipedia .org / wiki / Lagrange_multiplier atau teks kalkulus multivarian favorit Anda). Ingatlah bahwa dalam kalkulus adalah vektor variabel, tetapi dalam kasus kami xxx adalah konstan dan adalah vektor variabel. Setelah Anda menerapkan teknik pengali Lagrange Anda berakhir dengan persamaan pertama (3,41) (setelah membuang ekstraβ yang konstan relatif terhadap minimisasi dan dapat diabaikan).λt

Ini juga menunjukkan bahwa ini berfungsi untuk laso dan kendala lainnya.


8

Mungkin perlu membaca tentang dualitas Lagrangian dan hubungan yang lebih luas (kadang-kadang setara) antara:

  • optimisasi tunduk pada kendala keras (yaitu tidak dapat diganggu gugat)
  • optimisasi dengan penalti karena melanggar batasan.

Pengenalan cepat ke dualitas yang lemah dan dualitas yang kuat

Asumsikan kita memiliki beberapa fungsi dari dua variabel. Untuk setiap x dan y , kita memiliki:f(x,y)x^y^

minxf(x,y^)f(x^,y^)maxyf(x^,y)

Sejak itu berlaku untuk setiap x dan y juga menyatakan bahwa:x^y^

maxyminxf(x,y)minxmaxyf(x,y)

Ini dikenal sebagai dualitas yang lemah . Dalam keadaan tertentu, Anda juga memiliki dualitas yang kuat (juga dikenal sebagai properti saddle point ):

maxyminxf(x,y)=minxmaxyf(x,y)

Ketika dualitas kuat bertahan, menyelesaikan masalah ganda juga memecahkan masalah primal. Mereka dalam arti masalah yang sama!

Lagrangian untuk Regresi Ridge terbatas

L

L(b,λ)=i=1n(yxib)2+λ(j=1pbj2t)

The min-max interpretation of the Lagrangian

The Ridge regression problem subject to hard constraints is:

minbmaxλ0L(b,λ)

You pick b to minimize the objective, cognizant that after b is picked, your opponent will set λ to infinity if you chose b such that j=1pbj2>t.

If strong duality holds (which it does here because Slater's condition is satisfied for t>0), you then achieve the same result by reversing the order:

maxλ0minbL(b,λ)

Here, your opponent chooses λ first! You then choose b to minimize the objective, already knowing their choice of λ. The minbL(b,λ) part (taken λ as given) is equivalent to the 2nd form of your Ridge Regression problem.

As you can see, this isn't a result particular to Ridge regression. It is a broader concept.

References

(I started this post following an exposition I read from Rockafellar.)

Rockafellar, R.T., Convex Analysis

You might also examine lectures 7 and lecture 8 from Prof. Stephen Boyd's course on convex optimization.


note that your answer can be extended to any convex function.
81235

6

They are not equivalent.

For a constrained minimization problem

(1)minbi=1n(yxib)2s.t.j=1pbj2t,b=(b1,...,bp)

we solve by minimize over b the corresponding Lagrangean

(2)Λ=i=1n(yxib)2+λ(j=1pbj2t)

Here, t is a bound given exogenously, λ0 is a Karush-Kuhn-Tucker non-negative multiplier, and both the beta vector and λ are to be determined optimally through the minimization procedure given t.

Comparing (2) and eq (3.41) in the OP's post, it appears that the Ridge estimator can be obtained as the solution to

(3)minb{Λ+λt}

Since in (3) the function to be minimized appears to be the Lagrangean of the constrained minimization problem plus a term that does not involve b, it would appear that indeed the two approaches are equivalent...

But this is not correct because in the Ridge regression we minimize over b given λ>0. But, in the lens of the constrained minimization problem, assuming λ>0 imposes the condition that the constraint is binding, i.e that

j=1p(bj,ridge)2=t

The general constrained minimization problem allows for λ=0 also, and essentially it is a formulation that includes as special cases the basic least-squares estimator (λ=0) and the Ridge estimator (λ>0).

So the two formulation are not equivalent. Nevertheless, Matthew Gunn's post shows in another and very intuitive way how the two are very closely connected. But duality is not equivalence.


@MartijnWeterings Thanks for the comment, I have reworked my answer.
Alecos Papadopoulos

@MartijnWeterings I do not see what is confusing since the expression written in your comment is exactly the expression I wrote in my reworked post.
Alecos Papadopoulos

1
This was the duplicate question I had in mind were the equivalence is explained very intuitively to me math.stackexchange.com/a/336618/466748 the argument that you give for the two not being equivalent seems only secondary to me, and a matter of definition (the OP uses λ0 instead of λ>0 and we could just as well add the constrain t<βOLS22 to exclude the cases where λ=0) .
Sextus Empiricus

@MartijnWeterings When A is a special case of B, A cannot be equivalent to B. And ridge regression is a special case of the general constrained minimization problem, Namely a situation to which we arrive if we constrain further the general problem (like you do in your last comment).
Alecos Papadopoulos

Certainly you could define some constrained minimization problem that is more general then ridge regression (like you can also define some regularization problem that is more general than ridge regression, e.g. negative ridge regression), but then the non-equivalence is due to the way that you define the problem and not due to the transformation from the constrained representation to the Lagrangian representation. The two forms can be seen as equivalent within the constrained formulation/definition (non-general) that are useful for ridge regression.
Sextus Empiricus
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.