Bayesian vs MLE, masalah overfitting


12

Dalam buku PRML Bishop, ia mengatakan bahwa, overfitting adalah masalah dengan Estimasi Kemungkinan Maksimum (MLE), dan Bayesian dapat menghindarinya.

Tapi saya pikir, overfitting adalah masalah lebih banyak tentang pemilihan model, bukan tentang metode yang digunakan untuk melakukan estimasi parameter. Yaitu, misalkan saya memiliki kumpulan data , yang dihasilkan melalui f ( x ) = s i n ( x ) ,D , sekarang saya mungkin memilih model yang berbeda H i agar sesuai dengan data dan mencari tahu mana yang terbaik. Dan model yang dipertimbangkan adalah model polinomial dengan pesanan berbeda, H 1 adalah pesanan 1, H 2 adalah pesanan 2, H 3 adalah pesanan 9.

f(x)=sin(x),x[0,1]
HiH1H2H3

Sekarang saya mencoba menyesuaikan data dengan masing-masing dari 3 model, masing-masing model memiliki parameternya, dilambangkan sebagai w i untuk H i .DwiHi

Menggunakan ML, saya akan memiliki estimasi titik parameter model , dan H 1 terlalu sederhana dan akan selalu underfit data, sedangkan H 3 terlalu kompleks dan akan overfit data, hanya H 2 akan cocok dengan data dengan baik.wH1H3H2

Pertanyaan saya adalah,

1) Model akan menyesuaikan data, tapi saya tidak berpikir itu masalah ML, tetapi masalah model itu sendiri. Karena, dengan menggunakan ML untuk H 1 , H 2 tidak menghasilkan overfitting. Apakah saya benar?H3H1,H2

2) Dibandingkan dengan Bayesian, ML memang memiliki beberapa kelemahan, karena hanya memberikan estimasi titik parameter model , dan itu terlalu percaya diri. Sedangkan Bayesian tidak bergantung hanya pada nilai parameter yang paling mungkin, tetapi semua nilai yang mungkin dari parameter yang diberikan data yang diamati D , kan?wD

3) Mengapa Bayesian dapat menghindari atau mengurangi overfitting? Seperti yang saya pahami, kita dapat menggunakan Bayesian untuk perbandingan model, yaitu, mengingat data , kita bisa mengetahui kemungkinan marginal (atau bukti model) untuk masing-masing model yang dipertimbangkan, dan kemudian memilih yang dengan kemungkinan marginal tertinggi, benar ? Jika demikian, mengapa demikian?D

Jawaban:


19

1


1

GC Cawley dan NLC Talbot, Over-fitting dalam pemilihan model dan bias seleksi selanjutnya dalam evaluasi kinerja, Journal of Machine Learning Research, 2010. Penelitian, vol. 11, hlm. 2079-2107, Juli 2010. ( pdf )


+1, terima kasih banyak, saya akan membaca makalah Anda dan melihat apakah saya memiliki pertanyaan lebih lanjut, ;-)
alpukat

1
Hanya untuk dicatat di sini bahwa pengoptimalan biasanya dapat dianggap sebagai pengintegrasian - metode Laplace adalah contohnya. Mengoptimalkan biasanya gagal ketika itu bukan pendekatan yang baik untuk mengintegrasikan - karenanya mengapa REML biasanya lebih baik daripada ML.
probabilityislogic

@probabilityislogic, saya tidak yakin saya mengerti, ML sedikit seperti MAP, tidak ada integrasi yang dilakukan. Menggunakan pendekatan Laplace (seperti yang saya lihat digunakan sebelumnya) mengoptimalkan dalam arti bahwa Anda mengoptimalkan perkiraan untuk fungsi yang ingin Anda integrasikan dan diintegrasikan sebagai gantinya, tetapi masih ada integrasi yang terjadi.
Dikran Marsupial

1
@dikran marsupial - Mungkin cara yang lebih baik untuk menjelaskannya adalah bahwa integrasi sering didekati dengan baik dengan memperkirakan parameter dengan ML, dan membatasi parameter itu menjadi sama dengan MLE-nya. Perkiraan Laplace menyediakan "faktor koreksi" untuk intuisi ini - dengan cara yang sama seperti yang dilakukan oleh REML.
probabilityislogic

@probabilityislogic terima kasih atas jawabannya, saya akan memikirkannya!
Dikran Marsupial

7

Sebagai respons umum, jika Anda menggunakan model regresi tipe "kuadrat", sebenarnya tidak ada banyak perbedaan antara bayes dan ML, kecuali jika Anda menggunakan informasi informatif untuk parameter regresi. Menanggapi hal-hal spesifik:

H9H1

x

3) Pendekatan Bayesian dapat menghindari overfitting hanya untuk prior yang tepat. Ini beroperasi dengan cara yang mirip dengan istilah penalti yang Anda lihat dalam beberapa algoritma yang sesuai. Misalnya, penalti L2 = normal sebelumnya, penalti L1 = laplace prior.


H9

H

H9

4

H1H2H3

2H1

l1


Hipotesis sederhana (mis. H1, h2) dengan sampel pelatihan yang tidak mencukupi akan menjadi contoh kurang pas (untuk cv) dan tidak terlalu pas karena bias model pada beberapa contoh pelatihan yang diberikan.
yekta
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.