Untuk model linier , istilah susutnya selalu .
Apa alasannya mengapa kami tidak mengecilkan bias (intersep) istilah ? Haruskah kita mengecilkan istilah bias dalam model jaringan saraf?
Untuk model linier , istilah susutnya selalu .
Apa alasannya mengapa kami tidak mengecilkan bias (intersep) istilah ? Haruskah kita mengecilkan istilah bias dalam model jaringan saraf?
Jawaban:
Elemen Pembelajaran Statistik oleh Hastie et al. mendefinisikan regresi ridge sebagai berikut (Bagian 3.4.1, persamaan 3.41): yaitu secara eksplisit mengecualikan istilah intersepsi dari penalti ridge. β 0
Kemudian mereka menulis:
[...] perhatikan bahwa intersep telah dari hukuman. Hukuman mencegat akan membuat prosedur tergantung pada asal yang dipilih untuk ; artinya, menambahkan konstanta untuk masing-masing target tidak akan sekadar menghasilkan pergeseran prediksi dengan jumlah yang sama . Y c y i c
Memang, di hadapan istilah intersep, menambahkan ke semua hanya akan menyebabkan meningkat dengan juga dan sesuai semua nilai yang diprediksi juga akan meningkat sebesar . Ini tidak benar jika intersep dihukum: harus meningkat kurang dari .y i β 0 c y i c β 0 c
Faktanya, ada beberapa properti regresi linier yang bagus dan nyaman yang bergantung pada adanya istilah intersep yang tepat (belum dilap). Misalnya nilai rata-rata dan nilai rata-rata sama, dan (akibatnya) koefisien korelasi berganda kuadrat sama dengan koefisien determinasi : lihat misalnya utas ini untuk sebuah penjelasan: Interpretasi geometris dari koefisien korelasi berganda dan koefisien determinasi .y i R R 2 ( R ) 2 = cos 2 ( y , y ) = ‖ y ‖ 2
Menghukum intersep akan menyebabkan semua itu tidak benar lagi.
Ingat tujuan penyusutan atau regularisasi. Hal ini untuk mencegah algoritma pembelajaran untuk menyesuaikan data pelatihan atau setara - mencegah mengambil nilai parameter besar secara sewenang-wenang. Ini lebih cenderung untuk kumpulan data dengan lebih dari beberapa contoh pelatihan di hadapan kebisingan (diskusi yang sangat menarik tentang keberadaan kebisingan dan dampaknya dibahas dalam "Belajar dari Data" oleh Yaser Abu-Mustafa). Sebuah model yang dipelajari pada data bising tanpa regularisasi kemungkinan akan berkinerja buruk pada beberapa titik data yang tidak terlihat.
Dengan mengingat hal ini, bayangkan Anda memiliki titik data 2D yang ingin Anda klasifikasikan dalam dua kelas. Setelah semua kecuali parameter bias diperbaiki, memvariasikan istilah bias hanya akan memindahkan batas ke atas atau ke bawah. Anda dapat menggeneralisasi ini ke ruang dimensi yang lebih tinggi.
Algoritma pembelajaran tidak dapat menempatkan nilai besar secara sewenang-wenang untuk jangka waktu bias karena hal ini akan menghasilkan nilai kerugian bruto (model tidak akan cocok dengan data pelatihan). Dengan kata lain, mengingat beberapa set pelatihan, Anda (atau algoritma pembelajaran) tidak dapat memindahkan pesawat secara sewenang-wenang jauh dari yang sebenarnya.
Jadi, tidak ada alasan untuk mengecilkan istilah bias, algoritma pembelajaran akan menemukan yang bagus tanpa risiko overfitting.
Catatan terakhir: Saya melihat di beberapa makalah bahwa ketika bekerja di ruang dimensi tinggi untuk klasifikasi, tidak ada kebutuhan ketat untuk memodelkan istilah bias. Ini mungkin bekerja untuk data yang dapat dipisahkan secara linear karena dengan lebih banyak dimensi yang ditambahkan, ada lebih banyak kemungkinan untuk memisahkan kedua kelas.
Istilah intersep sama sekali tidak kebal terhadap penyusutan. Formulasi umum "susut" (yaitu regularisasi) menempatkan istilah regularisasi dalam fungsi kerugian, misalnya:
Di mana biasanya terkait dengan norma lebesgue, dan adalah skalar yang mengontrol berapa banyak berat yang kita berikan pada istilah susut.
Dengan meletakkan istilah susut pada fungsi kerugian seperti ini, ia memiliki efek pada semua koefisien dalam model. Saya menduga bahwa pertanyaan Anda muncul dari kebingungan tentang notasi di mana (dalam ) adalah vektor dari semua koefisien, termasuk . Model linier Anda mungkin akan lebih baik ditulis sebagai mana adalah "matriks desain," yang saya maksud adalah data Anda dengan kolom ditambahkan ke sisi kiri (untuk mengambil intersep ).
Sekarang, saya tidak dapat berbicara dengan regularisasi untuk jaringan saraf. Mungkin untuk jaringan saraf Anda ingin menghindari penyusutan istilah bias atau merancang fungsi kerugian yang diatur secara berbeda dari formulasi yang saya jelaskan di atas. Saya tidak tahu. Tapi saya sangat curiga bahwa bobot dan istilah bias diatur bersama.