Gaussian RBF vs Gaussian kernel


18

Apa perbedaan antara melakukan regresi linier dengan Gaussian Radial Basis Function (RBF) dan melakukan regresi linier dengan kernel Gaussian?


Selamat datang di situs ini, @ user35965. Tolong tuliskan akronim Anda. Dengan "RBF", maksud Anda fungsi basis radial ?
gung - Reinstate Monica

2
Ya, itulah apa yang saya maksudkan. Dicatat untuk referensi di masa mendatang.
user35965

Jawaban:


19

Satu-satunya perbedaan nyata adalah dalam regularisasi yang diterapkan. Jaringan RBF yang teregulasi biasanya menggunakan penalti berdasarkan norma bobot kuadrat. Untuk versi kernel, hukuman biasanya pada norma kuadrat dari bobot model linear yang dibangun secara implisit dalam ruang fitur yang diinduksi oleh kernel. Perbedaan praktis utama yang dibuat adalah bahwa penalti untuk jaringan RBF tergantung pada pusat-pusat jaringan RBF (dan karenanya pada sampel data yang digunakan) sedangkan untuk kernel RBF, ruang fitur yang diinduksi adalah sama terlepas dari sampel data, sehingga penalti adalah penalti pada fungsi model, bukan pada parameterisasinya .

Dengan kata lain, untuk kedua model yang kami miliki

f(x)=i=1αiK(xi,x)

Untuk pendekatan jaringan RBF, kriteria pelatihannya adalah

L=i=1(yif(xi))2+λα2

Untuk metode kernel RBF, kita memiliki K(x,x)=ϕ(x)ϕ(x) , dan w=i=1αiϕ(xi) . Ini berarti bahwa hukuman norma kuadrat pada bobot model dalam ruang fitur yang diinduksi, w dapat ditulis dalam hal parameter ganda, α sebagai

w2=αTKα,

di mana adalah bagian dari evaluasi pasangan-bijaksana dari kernel untuk semua pola pelatihan. Kriteria pelatihan kemudianK

L=i=1(yif(xi))2+λαTKα .

Satu-satunya perbedaan antara kedua model adalah dalam istilah regularisasi.K

Keuntungan teoretis utama dari pendekatan kernel adalah memungkinkan Anda untuk menafsirkan model non-linear sebagai model linier mengikuti transformasi non-linear tetap yang tidak bergantung pada sampel data. Dengan demikian, setiap teori pembelajaran statistik yang ada untuk model linear secara otomatis ditransfer ke versi non-linear. Namun, ini semua rusak segera setelah Anda mencoba dan menyetel parameter kernel, pada titik mana kita kembali ke titik yang hampir sama secara teoritis ketika kita menggunakan jaringan saraf RBF (dan MLP). Jadi keuntungan teoretis mungkin tidak sebesar yang kita inginkan.

Apakah mungkin ada perbedaan nyata dalam hal kinerja? Mungkin tidak banyak. Teorema "tanpa makan siang gratis" menunjukkan bahwa tidak ada keunggulan a-priori dari algoritma apa pun di atas semua algoritma lainnya, dan perbedaan dalam regularisasi cukup halus, jadi jika ragu cobalah keduanya dan pilih yang terbaik sesuai misalnya validasi silang.


1
@ AgdasOzgenc Ya, untuk RBF regulator adalah daripada untuk mesin kernel. Mereka akan menjadi lebih mirip sebagai lebar dari fungsi dasar mendekati nol sebagai akan mendekati . Saya pikir ini pada dasarnya karena menghitung korelasi antara fungsi dasar. α2=αTIααTKαKIK
Dikran Marsupial

@CagdasOzgenc Cara saya melihatnya adalah bahwa di regulariser menimbang hukuman secara berbeda untuk setiap vektor basis, dan hukuman tergantung pada pemilihan vektor basis lainnya. Bobot ini tergantung pada korelasinya, jadi jika Anda memilih sampel yang berbeda, bobot berubah untuk mengimbanginya. Cara lain untuk melihatnya adalah bahwa model didefinisikan dalam ruang fitur yang ditentukan oleh , yang tidak tergantung pada pilihan vektor basis (asalkan mereka membentang ruang yang berisi data). Kϕ(x)
Dikran Marsupial

@CagdasOzgenc Tentu saja kita dapat mengubah ruang fungsi basis dengan dekomposisi eigen dan mendapatkan kembali pengatur gaya (memang itu adalah trik yang berguna dalam mengoptimalkan parameter regularisasi - doi.org/10.1016/j.neunet.2007.05.005 ). Namun transformasi itu menghilangkan ketergantungan pilihan awal fungsi dasar. Agar dua hal menjadi sama akan memerlukan , yang secara umum tidak benar (terutama tidak untuk kernel RBF). Kα2αTKα=μαTIα
Dikran Marsupial

Terima kasih. Saya akan merenungkan ini akan kembali kepada Anda. Saat ini sepertinya saya tidak setingkat pemahaman Anda. Saya perlu melakukan lebih banyak pemikiran :).
Cagdas Ozgenc

@CagdasOzgenc tidak ada masalah, sebagian besar teks standar menjelaskannya melalui fungsi eigen dari fungsi kernel, yang membuat otak saya sakit juga! ; o)
Dikran Marsupial
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.