Pertanyaan yang diberi tag «ridge-regression»

Metode regularisasi untuk model regresi yang menyusutkan koefisien ke nol.

2
Regresi punggungan - interpretasi Bayesian
Saya telah mendengar bahwa regresi ridge dapat diturunkan sebagai rata-rata distribusi posterior, jika prior dipilih secara memadai. Apakah intuisi bahwa kendala seperti yang ditetapkan pada koefisien regresi oleh sebelumnya (misalnya distribusi normal standar sekitar 0) adalah identik / ganti hukuman yang ditetapkan pada ukuran kuadrat dari koefisien? Apakah sebelumnya harus …

1
Relaksasi Lagrangian dalam konteks regresi ridge
Dalam "Elemen Pembelajaran Statistik" (edisi ke-2), hal63, penulis memberikan dua formulasi berikut dari masalah regresi ridge: β^r i dge= argminβ{ ¢i = 1N( ysaya- β0- ∑j = 1halxsaya jβj)2+ λ ∑j = 1halβ2j}β^rsayadge=Argminβ{∑saya=1N(ysaya-β0-∑j=1halxsayajβj)2+λ∑j=1halβj2} \hat{\beta}^{ridge} = \underset{\beta}{\operatorname{argmin}} \left\{ \sum_{i=1}^N(y_i-\beta_0-\sum_{j=1}^p x_{ij} \beta_j)^2 + \lambda \sum_{j=1}^p \beta_j^2 \right\} dan β^r i dge= argminβ∑i …


1
Koefisien regresi punggungan yang lebih besar dari koefisien OLS atau bahwa tanda perubahan tergantung pada
Saat menjalankan regresi ridge, bagaimana Anda menginterpretasikan koefisien yang berakhir lebih besar dari koefisien yang sesuai di bawah kuadrat terkecil (untuk nilai λλ\lambda )? Bukankah regresi ridge seharusnya mengecilkan koefisien secara monoton? Pada catatan terkait, bagaimana seseorang menginterpretasikan koefisien yang tandanya berubah selama regresi ridge (yaitu, jejak ridge melintasi dari …







1
Memahami regresi ridge negatif
Saya mencari literatur tentang regresi ridge negatif . Singkatnya, ini adalah generalisasi dari regresi ridge linier menggunakan negatif dalam rumus estimator:Kasus positif memiliki teori yang bagus: sebagai fungsi kerugian, sebagai kendala, seperti Bayes sebelumnya ... tapi saya merasa bingung dengan versi negatif dengan hanya rumus di atas. Kebetulan berguna untuk …

5
Norma punggungan & LASSO
Posting ini mengikuti yang ini: Mengapa estimasi ridge menjadi lebih baik daripada OLS dengan menambahkan konstanta pada diagonal? Ini pertanyaan saya: Sejauh yang saya tahu, regularisasi ridge menggunakan -norm (jarak euclidean). Tetapi mengapa kita menggunakan kuadrat dari norma ini? (aplikasi langsung akan menghasilkan dengan akar kuadrat dari jumlah beta kuadrat).ℓ …


1
Bagaimana menafsirkan hasil ketika ridge dan laso secara terpisah berkinerja baik tetapi menghasilkan koefisien yang berbeda
Saya menjalankan model regresi baik dengan Lasso dan Ridge (untuk memprediksi variabel hasil diskrit mulai dari 0-5). Sebelum menjalankan model, saya menggunakan SelectKBestmetode scikit-learnuntuk mengurangi set fitur dari 250 menjadi 25 . Tanpa pemilihan fitur awal, Lasso dan Ridge menghasilkan skor akurasi yang lebih rendah [yang mungkin disebabkan oleh ukuran …

2
Jika susut diterapkan dengan cara yang cerdas, apakah itu selalu bekerja lebih baik untuk penduga yang lebih efisien?
Misalkan saya memiliki dua estimator dan yang merupakan estimator konsisten dari parameter yang sama dan sedemikian rupa sehingga dengan dalam arti psd. Dengan demikian, asymptotically lebih efisien daripada . Kedua penaksir ini didasarkan pada fungsi kerugian yang berbeda. β 2β0√βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2β0β0\beta_0V1≤V2 β 1 β 2n−−√(βˆ1−β0)→dN(0,V1),n−−√(βˆ2−β0)→dN(0,V2)n(β^1−β0)→dN(0,V1),n(β^2−β0)→dN(0,V2)\sqrt{n}(\widehat{\beta}_1 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_1), \quad \sqrt{n}(\widehat{\beta}_2 …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.