Dalam "pembelajaran mesin Kevin Murphy: Perspektif probabilistik", bab 3.2, penulis menunjukkan pembelajaran konsep Bayesian pada contoh yang disebut "permainan angka": Setelah mengamati sampel dari , kami ingin memilih hipotesis yang paling menggambarkan aturan yang menghasilkan sampel. Misalnya "bilangan genap" atau "bilangan prima".
Estimasi a-posteriori maksimum dan kemungkinan maksimum didefinisikan sebagai:
di mana mewakili probabilitas sebelumnya dari berbagai hipotesis dan posterior didefinisikan sebagai:
iff , yaitu, seberapa besar kemungkinan pengambilan sampel yang seragam dengan penggantian dari hipotesis akan menghasilkan set . Secara intuitif ini berarti bahwa posterior tertinggi untuk hipotesis "terkecil". Misalnya, hipotesis "kekuatan 2" menjelaskan pengamatan lebih baik daripada "bilangan genap".
Semua ini jelas. Namun, saya bingung tentang kalimat berikut (meskipun secara intuitif masuk akal):
Karena jangka waktu kemungkinan tergantung secara eksponensial pada , dan sebelumnya tetap konstan, karena kami mendapatkan lebih banyak data, estimasi MAP menyatu ke arah perkiraan kemungkinan maksimum.
Memang benar bahwa kemungkinan tergantung secara eksponensial pada , namun, angka eksponensial berada dalam interval dan sebagai , , sehingga kemungkinan seharusnya benar-benar menghilang.
Mengapa MAP bertemu dengan MLE dalam kasus ini?