Bagaimana skala Lasso dengan ukuran matriks desain?


10

Jika saya memiliki matriks desain , di mana adalah jumlah pengamatan dimensi , apa kompleksitas penyelesaian untuk dengan LASSO, wrt dan ? Saya pikir jawabannya harus merujuk pada bagaimana satu iterasi LASSO skala dengan parameter ini, daripada bagaimana jumlah iterasi (konvergensi) skala, kecuali Anda merasa sebaliknya.XRn×dndβ^=argminβ12n||Xβy||2+λ||β||1nd

Saya telah membaca pertanyaan kompleksitas LASSO ini sebelumnya , tetapi tampaknya bertentangan dengan diskusi tentang glmnet di sini dan di sini . Saya sadar bahwa ada banyak algoritma di luar sana, termasuk pendekatan GLMnet glmnet, tetapi saya menulis makalah tentang mengganti komponen LASSO ke algoritma induk dan ingin memasukkan diskusi tentang kompleksitas LASSO secara umum, terutama dengan dan . Saya juga ingin mengetahui kompleksitas glmnet dalam kasus dasar non-sparse, tetapi makalah yang dirujuk agak membingungkan karena keseluruhan kompleksitas algoritma tidak eksplisit.dn


3
Tidak jelas mengapa jawaban ini stats.stackexchange.com/a/190717/28666 (di utas yang Anda tautkan ) tidak menjawab pertanyaan Anda. Bisakah Anda menguraikan? Apa yang bertentangan dengan apa?
amoeba

Halaman 6 dalam [pdf] [1], menyatakan "Dengan demikian siklus lengkap melalui semua variabel d biaya ". Namun pertanyaan yang Anda tautkan ke status . Apakah saya melewatkan satu loop di sini untuk mendapatkan kompleksitas ? [1]: jstatsoft.org/article/view/v033i01HAI(dn)HAI(d2n)d2
rnoodle

@amoeba Tautan yang Anda berikan adalah untuk algoritma LARS - Saya ingin tahu tentang pendekatan GLM.
rnoodle

Referensi, untuk regresi sudut terkecil dan O ( d n ) untuk penurunan koordinat, adalah benar. Perbedaannya adalah bahwa (1) LARS menemukan solusi yang tepat dalam O ( d 2 n ) (dan melakukan hal tersebut melintasi seluruh jalur yang mungkin λ dengan kompleksitas yang sama dengan masalah OLS dengan seluruh masalah, yang juga berskala sebagai O ( d 2 n ) ), sedangkan (2) penurunan koordinat melakukan "hanya" satu langkah pendekatan tunggal dalam O ( dHAI(d2n)HAI(dn)HAI(d2n)λHAI(d2n) , konvergen / 'turun' lebih dekat ke minimum masalah LASSO. LARS menggunakanlangkah d . Dengan keturunan yang terkoordinasi ... tidak ada yang tahu. HAI(dn)d
Sextus Empiricus

Jawaban:


3

Jawaban dari referensi,

  • untuk regresi sudut terkecilHAI(d2n)
  • untuk penurunan koordinatHAI(dn)

, benar.


Perbedaannya adalah itu

Persamaan LARS ditulis dalam bentuk tertutup dan menemukan solusi yang tepat

HAI(d2n)

sementara

HAI(dn)


dHAI((d-k)n+k2)d-kk

d2nddd>>100d=100


Scaling LARS adalah masalah yang melibatkan kompleksitas komputasi. Penskalaan koordinat penurunan adalah masalah yang melibatkan kompleksitas komputasi dan konvergensi.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.