Alasan untuk tidak menyusut istilah bias (intersep) dalam regresi


21

Untuk model linier , istilah susutnya selalu .y=β0+xβ+εP(β)

Apa alasannya mengapa kami tidak mengecilkan bias (intersep) istilah ? Haruskah kita mengecilkan istilah bias dalam model jaringan saraf?β0


Perpustakaan liblinear untuk regresi logistik seperti yang digunakan dalam scikit-belajar menghukum istilah bias (saya pikir ini adalah artefak implementasi, bias ditangani sebagai variabel input tambahan)
seanv507

Jawaban:


33

Elemen Pembelajaran Statistik oleh Hastie et al. mendefinisikan regresi ridge sebagai berikut (Bagian 3.4.1, persamaan 3.41): yaitu secara eksplisit mengecualikan istilah intersepsi dari penalti ridge. β 0

β^ridge=argminβ{i=1N(yiβ0j=1pxijβj)2+λj=1pβj2},
β0

Kemudian mereka menulis:

[...] perhatikan bahwa intersep telah dari hukuman. Hukuman mencegat akan membuat prosedur tergantung pada asal yang dipilih untuk ; artinya, menambahkan konstanta untuk masing-masing target tidak akan sekadar menghasilkan pergeseran prediksi dengan jumlah yang sama . Y c y i cβ0Ycyic

Memang, di hadapan istilah intersep, menambahkan ke semua hanya akan menyebabkan meningkat dengan juga dan sesuai semua nilai yang diprediksi juga akan meningkat sebesar . Ini tidak benar jika intersep dihukum: harus meningkat kurang dari .y i β 0 c y i c β 0 ccysayaβ0cy^sayacβ0c

Faktanya, ada beberapa properti regresi linier yang bagus dan nyaman yang bergantung pada adanya istilah intersep yang tepat (belum dilap). Misalnya nilai rata-rata dan nilai rata-rata sama, dan (akibatnya) koefisien korelasi berganda kuadrat sama dengan koefisien determinasi : lihat misalnya utas ini untuk sebuah penjelasan: Interpretasi geometris dari koefisien korelasi berganda dan koefisien determinasi .y i R R 2 ( R ) 2 = cos 2 ( y , y ) = y2ysayay^sayaRR2

(R)2=cos2(y^,y)=y^2y2=R2,
R 2RR2

Menghukum intersep akan menyebabkan semua itu tidak benar lagi.


2

Ingat tujuan penyusutan atau regularisasi. Hal ini untuk mencegah algoritma pembelajaran untuk menyesuaikan data pelatihan atau setara - mencegah mengambil nilai parameter besar secara sewenang-wenang. Ini lebih cenderung untuk kumpulan data dengan lebih dari beberapa contoh pelatihan di hadapan kebisingan (diskusi yang sangat menarik tentang keberadaan kebisingan dan dampaknya dibahas dalam "Belajar dari Data" oleh Yaser Abu-Mustafa). Sebuah model yang dipelajari pada data bising tanpa regularisasi kemungkinan akan berkinerja buruk pada beberapa titik data yang tidak terlihat.

Dengan mengingat hal ini, bayangkan Anda memiliki titik data 2D yang ingin Anda klasifikasikan dalam dua kelas. Setelah semua kecuali parameter bias diperbaiki, memvariasikan istilah bias hanya akan memindahkan batas ke atas atau ke bawah. Anda dapat menggeneralisasi ini ke ruang dimensi yang lebih tinggi.

Algoritma pembelajaran tidak dapat menempatkan nilai besar secara sewenang-wenang untuk jangka waktu bias karena hal ini akan menghasilkan nilai kerugian bruto (model tidak akan cocok dengan data pelatihan). Dengan kata lain, mengingat beberapa set pelatihan, Anda (atau algoritma pembelajaran) tidak dapat memindahkan pesawat secara sewenang-wenang jauh dari yang sebenarnya.

Jadi, tidak ada alasan untuk mengecilkan istilah bias, algoritma pembelajaran akan menemukan yang bagus tanpa risiko overfitting.

Catatan terakhir: Saya melihat di beberapa makalah bahwa ketika bekerja di ruang dimensi tinggi untuk klasifikasi, tidak ada kebutuhan ketat untuk memodelkan istilah bias. Ini mungkin bekerja untuk data yang dapat dipisahkan secara linear karena dengan lebih banyak dimensi yang ditambahkan, ada lebih banyak kemungkinan untuk memisahkan kedua kelas.


Bisakah Anda memberikan referensi untuk beberapa makalah yang mengatakan "ketika bekerja di ruang dimensi tinggi untuk klasifikasi, tidak ada kebutuhan ketat untuk memodelkan istilah bias"?
chandresh

1

Istilah intersep sama sekali tidak kebal terhadap penyusutan. Formulasi umum "susut" (yaitu regularisasi) menempatkan istilah regularisasi dalam fungsi kerugian, misalnya:

RSS(β)=yiXiβ2

RegularizedLoss(β)=RSS(β)λf(β)

Di mana biasanya terkait dengan norma lebesgue, dan adalah skalar yang mengontrol berapa banyak berat yang kita berikan pada istilah susut.f(β)λ

Dengan meletakkan istilah susut pada fungsi kerugian seperti ini, ia memiliki efek pada semua koefisien dalam model. Saya menduga bahwa pertanyaan Anda muncul dari kebingungan tentang notasi di mana (dalam ) adalah vektor dari semua koefisien, termasuk . Model linier Anda mungkin akan lebih baik ditulis sebagai mana adalah "matriks desain," yang saya maksud adalah data Anda dengan kolom ditambahkan ke sisi kiri (untuk mengambil intersep ).βP(β)β0y=Xβ+ϵX1s

Sekarang, saya tidak dapat berbicara dengan regularisasi untuk jaringan saraf. Mungkin untuk jaringan saraf Anda ingin menghindari penyusutan istilah bias atau merancang fungsi kerugian yang diatur secara berbeda dari formulasi yang saya jelaskan di atas. Saya tidak tahu. Tapi saya sangat curiga bahwa bobot dan istilah bias diatur bersama.


2
Itu tergantung pada konvensi, tetapi misalnya Elemen Pembelajaran Statistik oleh Hastie et al. mendefinisikan regresi ridge sehingga intersep tidak dihukum (lihat jawaban saya). Saya menduga ini mungkin lebih standar daripada yang lainnya.
Amoeba berkata Reinstate Monica

1

Saya tidak yakin jawaban David Marx di atas benar; menurut Andrew Ng, dengan konvensi, bias / intersep koefisien biasanya tidak diatur dalam regresi linier, dan dalam hal apapun apakah itu diatur atau tidak tidak membuat perbedaan yang signifikan.


1

Saya akan memberikan penjelasan paling sederhana, lalu berkembang.

yt=εt
E[εt]=E[yt]0

β

ββ0

yt=β0+εt
E[yt]=β0+E[εt]
E[εt]=0β0=μ=E[yt]

Model ini tidak seseksi model aslinya, ini sebenarnya konyol. Namun, itu adalah model yang sah. Anda bisa menjalankan ANOVA di atasnya, misalnya.

β0=E[yt]

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.