Jawaban:
Regresi Ridge menggunakan regularisasi dengan norma , sedangkan regresi Bayesian , adalah model regresi yang didefinisikan dalam istilah probabilistik, dengan prior eksplisit pada parameter. Pilihan prior dapat memiliki efek regularisasi, misalnya menggunakan prior Laplace untuk koefisien setara dengan regularisasi . Mereka tidak sama, karena regresi ridge adalah semacam model regresi, dan pendekatan Bayesian adalah cara umum untuk mendefinisikan dan memperkirakan model statistik yang dapat diterapkan pada model yang berbeda.
Model regresi punggungan didefinisikan sebagai
Dalam pengaturan Bayesian, kami memperkirakan distribusi posterior dengan menggunakan teorema Bayes
Regresi punggungan berarti mengasumsikan kemungkinan Normal dan Normal sebelum parameter. Setelah menjatuhkan konstanta normalisasi, fungsi kepadatan log dari distribusi normal adalah
Sekarang Anda dapat melihat bahwa memaksimalkan kemungkinan log normal, dengan prior normal setara dengan meminimalkan kerugian kuadrat, dengan penalti ridge
Untuk membaca lebih lanjut tentang regresi ridge dan regularisasi lihat utasnya: Mengapa estimasi ridge menjadi lebih baik daripada OLS dengan menambahkan konstanta pada diagonal? , dan Masalah apa yang diselesaikan metode penyusutan? , dan Kapan saya harus menggunakan laso vs ridge? , dan Mengapa regresi ridge disebut "ridge", mengapa itu diperlukan, dan apa yang terjadi ketika pergi hingga tak terbatas? , dan banyak lagi yang kita miliki .