Saya telah mencurahkan banyak waktu untuk pengembangan metode dan perangkat lunak untuk memvalidasi model prediktif dalam domain statistik frequentist tradisional. Dalam menerapkan lebih banyak gagasan Bayes ke dalam praktik dan pengajaran, saya melihat beberapa perbedaan utama yang harus dianut. Pertama, pemodelan prediktif Bayesian meminta analis untuk berpikir keras tentang distribusi sebelumnya yang dapat disesuaikan dengan fitur kandidat, dan prior ini akan menarik model ke arah mereka (yaitu, mencapai penyusutan / penalti / regularisasi dengan jumlah hukuman yang berbeda untuk fitur prediksi berbeda ). Kedua, cara Bayesian "asli" tidak menghasilkan model tunggal tetapi satu mendapatkan seluruh distribusi posterior untuk prediksi.
Dengan mempertimbangkan fitur Bayesian itu, apa yang dimaksud dengan overfitting? Haruskah kita menilainya? Jika ya, bagaimana caranya? Bagaimana kita tahu kapan model Bayesian dapat diandalkan untuk penggunaan lapangan? Atau apakah itu titik diperdebatkan karena posterior akan membawa semua ketidakpastian pemberian hati-hati ketika kita menggunakan model yang kita kembangkan untuk prediksi?
Bagaimana pemikiran akan berubah jika kita memaksa model Bayesian untuk didistilasi ke satu nomor, misalnya, risiko rata-rata / mode / median posterior?
Saya melihat beberapa pemikiran terkait di sini . Diskusi paralel dapat ditemukan di sini .
Pertanyaan tindak lanjut :: Jika kita sepenuhnya Bayesian dan meluangkan waktu untuk memikirkan prior sebelum melihat data, dan kami mencocokkan suatu model di mana kemungkinan data ditentukan secara tepat, apakah kami terdorong untuk puas dengan model kami sehubungan dengan overfitting ? Atau apakah kita perlu melakukan apa yang kita lakukan di dunia sering di mana subjek yang dipilih secara acak dapat diprediksi dengan rata-rata, tetapi jika kita memilih subjek yang memiliki prediksi sangat rendah atau yang memiliki nilai prediksi sangat tinggi akan ada regresi maksudnya?