Regresi sudut terkecil menjaga korelasinya menurun dan terikat secara monoton?


9

Saya mencoba memecahkan masalah untuk regresi sudut terkecil (LAR). Ini adalah masalah 3.23 pada halaman 97 dari Hastie et al., Elemen Pembelajaran Statistik, 2. ed. (Pencetakan ke-5) .

Pertimbangkan masalah regresi dengan semua variabel dan respons memiliki mean nol dan standar deviasi. Anggap juga bahwa setiap variabel memiliki korelasi absolut identik dengan respons:

1N|xj,y|=λ,j=1,...,p

Biarkan menjadi koefisien kuadrat terkecil dari di dan biarkan untuk \ alpha \ dalam [0,1] .β^yXu(α)=αXβ^α[0,1]

Saya diminta untuk menunjukkan bahwa

1N|xj,yu(α)|=(1α)λ,j=1,...,p
dan saya mengalami masalah dengan itu. Perhatikan bahwa ini pada dasarnya dapat mengatakan bahwa korelasi masing-masing xj dengan residual tetap sama besarnya ketika kita maju ke arah u .

Saya juga tidak tahu bagaimana menunjukkan bahwa korelasinya sama dengan:

λ(α)=(1α)(1α)2+α(2α)NRSSλ

Pointer apa pun akan sangat dihargai!


2
@ Belmont, apa yang ? Bisakah Anda memberikan lebih banyak konteks tentang masalah Anda? Tautan ke artikel dengan properti standar LAR misalnya akan banyak membantu. u(α)
mpiktas

@ Belmont, Ini terlihat seperti masalah dari Hastie, dkk., Elemen Pembelajaran Statistik , 2. ed. Apakah ini pekerjaan rumah? Jika demikian, Anda dapat menambahkan tag itu.
kardinal

@ Belmont, sekarang @ cardinal memberikan jawaban yang lengkap, dapatkah Anda menentukan apa sebenarnya LAR, untuk referensi di masa mendatang? Menilai dari jawaban ini adalah manipulasi standar produk dari regresi kuadrat terkecil diberikan beberapa kendala awal. Seharusnya tidak ada nama khusus untuk itu tanpa alasan serius.
mpiktas

1
@mpiktas, ini adalah algoritma stagewise, jadi setiap kali variabel memasuki atau meninggalkan model pada jalur regularisasi, ukuran (yaitu kardinalitas / dimensi) dari tumbuh atau menyusut masing-masing dan perkiraan LS "baru" digunakan berdasarkan variabel "aktif" saat ini. Dalam kasus laso, yang merupakan masalah optimasi cembung, prosedur ini pada dasarnya mengeksploitasi struktur khusus dalam kondisi KKT untuk mendapatkan solusi yang sangat efisien. Ada juga generalisasi untuk, misalnya, regresi logistik berdasarkan pada IRLS dan Heine-Borel (untuk membuktikan konvergensi dalam jumlah langkah terbatas.)β
kardinal

1
@ Belmont -1, karena saya baru saja membeli buku Hastie, saya dapat mengonfirmasi, bahwa ini adalah latihan darinya. Jadi saya memberi Anda -1 besar, karena Anda bahkan tidak berhasil memberikan semua definisi, saya bahkan tidak berbicara tentang memberikan referensi.
mpiktas

Jawaban:


21

Ini adalah masalah 3.23 pada halaman 97 dari Hastie et al., Elemen Pembelajaran Statistik , 2. ed. (Pencetakan ke-5) .

Kunci dari masalah ini adalah pemahaman yang baik tentang kuadrat terkecil biasa (yaitu, regresi linier), khususnya ortogonalitas dari nilai yang dipasang dan residu.

Lemma ortogonalitas : Misalkan adalah matriks desain , vektor respons dan parameter (benar). Dengan asumsi adalah peringkat penuh (yang akan kita bahas), perkiraan OLS dari adalah . Nilai yang dipasang adalah . Kemudian . Artinya, nilai-nilai yang dipasang adalah ortogonal terhadap residu. Ini mengikuti sejak .n × p yXn×pyX β β = ( X T X ) - 1 X T y y = X ( X T X ) - 1 X T y y , y - y= y T ( y - y ) = 0 X T ( y -βXββ^=(XTX)1XTyy^=X(XTX)1XTyy^,yy^=y^T(yy^)=0XT(yy^)=XTyXTX(XTX)1XTy=XTyXTy=0

Sekarang, mari menjadi vektor kolom sehingga adalah th kolom . Kondisi yang diasumsikan adalah:x j j XxjxjjX

  • j11Nxj,xj=1 untuk setiap , ,j1Ny,y=1
  • 1pp1Nxj,1p=1Ny,1p=0 mana menunjukkan vektor yang panjangnya , dan1pp
  • j1N|xj,y|=λ untuk semua .j

Perhatikan bahwa secara khusus , pernyataan terakhir dari lemma ortogonalitas identik dengan untuk semua .jxj,yy^=0j


Korelasi terikat

Sekarang, . Jadi, dan suku kedua di sebelah kanan adalah nol oleh lemma ortogonalitas , jadi seperti yang diinginkan. Nilai absolut dari korelasi itu adil x j , y - u ( a ) = x j , ( 1 - α ) y + α y - αu(α)=αXβ^=αy^1

xj,yu(a)=xj,(1α)y+αyαy^=(1α)xj,y+αxj,yy^,
ρ j(α)= 1
1N|xj,yu(α)|=(1α)λ,
ρ^j(α)=1N|xj,yu(α)|1Nxj,xj1Nyu(α),yu(α)=(1α)λ1Nyu(α),yu(α)

Catatan : Sisi kanan di atas tidak bergantung pada dan pembilangnya sama dengan kovarians karena kita mengasumsikan bahwa semua dan berpusat (jadi, khususnya, tidak perlu pengurangan rata-rata dari rata-rata) ).x j yjxjy

Apa gunanya? Ketika meningkatkan vektor respons, dimodifikasi sehingga ia beringsut menuju solusi kuadrat-terkecil ( terbatas! ) Yang diperoleh dengan menggabungkan hanya parameter pertama dalam model. Ini secara bersamaan memodifikasi parameter yang diestimasi karena mereka adalah produk dalam sederhana dari prediktor dengan vektor respons (yang dimodifikasi). Modifikasi mengambil bentuk khusus. Itu menjaga (besarnya) korelasi antara prediktor dan respons yang dimodifikasi sama sepanjang proses (meskipun nilai korelasinya berubah). Pikirkan tentang apa yang dilakukan secara geometris dan Anda akan memahami nama prosedurnya!pαp


Bentuk eksplisit dari korelasi (absolut)

Mari kita fokus pada istilah dalam penyebut, karena pembilang sudah dalam bentuk yang diperlukan. Kami memiliki

yu(α),yu(α)=(1α)y+αyu(α),(1α)y+αyu(α).

Mengganti dalam dan menggunakan linearitas produk dalam, kita dapatkanu(α)=αy^

yu(α),yu(α)=(1α)2y,y+2α(1α)y,yy^+α2yy^,yy^.

Perhatikan itu

  • y,y=N dengan asumsi,
  • y,yy^=yy^,yy^+y^,yy^=yy^,yy^ , dengan menerapkan lemma ortogonal (lagi-lagi) ke suku kedua di tengah; dan,
  • yy^,yy^=RSS menurut definisi.

Menyatukan semua ini, Anda akan melihat bahwa kami mendapatkannya

ρ^j(α)=(1α)λ(1α)2+α(2α)NRSS=(1α)λ(1α)2(1RSSN)+1NRSS

Untuk menyelesaikannya, dan jadi jelas bahwa secara monoton menurun dalam dan sebagai . ρ j(α)α ρ j(α)0α11RSSN=1N(y,y,yy^,yy^)0ρ^j(α)αρ^j(α)0α1


Epilog : Berkonsentrasilah pada ide-ide di sini. Sebenarnya hanya ada satu. The ortogonalitas lemma melakukan hampir semua pekerjaan untuk kita. Sisanya hanyalah aljabar, notasi, dan kemampuan untuk membuat dua yang terakhir ini bekerja.


2
@ kardinal, +1. Jawabannya adalah besarnya lebih baik daripada pertanyaan.
mpiktas

@ cardinal, Anda mungkin ingin mengubah tautan ke amazon atau situs lain. Saya pikir bahwa menautkan ke buku lengkap dapat menimbulkan beberapa masalah hak cipta.
mpiktas

3
@mpiktas, tidak. Tidak ada masalah hak cipta. Itu adalah situs web resmi untuk buku itu. Para penulis memperoleh izin dari Springer untuk membuat PDF tersedia secara online secara gratis. (Lihat catatan untuk efek ini di situs.) Saya pikir mereka mendapat ide dari Stephen Boyd dan teks Optimasi Cembungnya . Semoga tren seperti itu akan meningkat dalam beberapa tahun ke depan. Nikmati!
kardinal

@ kardinal, terima kasih banyak! Itu sangat murah hati dari penulis.
mpiktas

@mpiktas, sejauh ini buku yang paling populer di Springer Series in Statistics. Itu terlihat bagus di iPad. Yang mengingatkan saya --- Saya juga harus mengunduh teks Boyd. Bersulang.
kardinal
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.