Jawaban singkat oleh @bean menjelaskan dengan sangat baik. Namun, saya ingin menunjuk ke bagian 1.1 dari makalah Gibbs Sampling untuk yang belum tahu oleh Resnik dan Hardisty yang membawa masalah ini lebih mendalam. Saya menulis beberapa baris dari makalah ini dengan sedikit modifikasi (Jawaban ini mengulangi beberapa hal yang diketahui OP demi kelengkapan)
MLE
Secara formal MLE menghasilkan pilihan (parameter model) yang paling mungkin untuk menghasilkan data yang diamati.
PETA
Perkiraan MAP adalah pilihan yang paling mungkin diberikan data yang diamati. Berbeda dengan MLE, estimasi MAP menerapkan Aturan Bayes, sehingga estimasi kami dapat memperhitungkan pengetahuan sebelumnya tentang apa yang kami harapkan dari parameter kami dalam bentuk distribusi probabilitas sebelumnya.
Menangkap
Estimasi MLE dan MAP sama-sama memberi kami estimasi terbaik, sesuai dengan definisi masing-masing "terbaik". Tetapi perhatikan bahwa menggunakan estimasi tunggal - apakah itu MLE atau MAP - membuang informasi. Pada prinsipnya, parameter dapat memiliki nilai apa pun (dari domain); mungkin kita tidak mendapatkan perkiraan yang lebih baik jika kita memperhitungkan seluruh distribusi, bukan hanya satu nilai estimasi parameter saja? Jika kita melakukan itu, kita menggunakan semua informasi tentang parameter yang dapat kita peras dari data yang diamati, X.
Jadi dengan tangkapan ini, kita mungkin tidak ingin menggunakannya. Juga, seperti yang telah disebutkan oleh bean dan Tim, jika Anda harus menggunakan salah satunya, gunakan MAP jika Anda mendapat sebelumnya. Jika Anda tidak memiliki prior, MAP dikurangi menjadi MLE. Konjugasi prior akan membantu menyelesaikan masalah secara analitis, jika tidak gunakan Gibbs Sampling.