Untuk mendapatkan ini, dan untuk menyederhanakan masalah, saya selalu berpikir dulu hanya dalam satu parameter dengan distribusi a-priori seragam (jarak jauh), sehingga dalam hal ini, estimasi MAP dari parameter sama dengan MLE . Namun, asumsikan bahwa fungsi kemungkinan Anda cukup rumit untuk memiliki beberapa maksimum lokal.
Apa yang dilakukan MCMC dalam contoh ini dalam 1-D adalah mengeksplorasi kurva posterior hingga menemukan nilai probabilitas maksimum. Jika variansnya terlalu pendek, Anda pasti akan terjebak pada maxima lokal, karena Anda akan selalu mengambil nilai sampel di dekat itu: algoritma MCMC akan "berpikir" itu terjebak pada distribusi target. Namun, jika variansnya terlalu besar, setelah Anda terjebak pada satu maksimum lokal, Anda akan lebih atau kurang menolak nilai sampai Anda menemukan daerah lain probabilitas maksimum. Jika Anda mengusulkan nilai pada MAP (atau wilayah yang sama dengan probabilitas maksimum lokal yang lebih besar dari yang lain), dengan varian besar Anda akhirnya akan menolak hampir setiap nilai lainnya: perbedaan antara wilayah ini dan yang lain akan terlalu besar.
Tentu saja, semua hal di atas akan memengaruhi laju konvergensi dan bukan konvergensi "per-se" rantai Anda. Ingat bahwa apa pun variansnya, selama probabilitas memilih nilai wilayah maksimum global ini adalah positif, rantai Anda akan bertemu.
Namun, untuk mem-by-pass masalah ini, seseorang dapat mengusulkan varians berbeda dalam periode burn-in untuk setiap parameter dan bertujuan pada tingkat penerimaan tertentu yang dapat memenuhi kebutuhan Anda (katakanlah , lihat Gelman, Roberts & Gilks, 1995 dan Gelman, Gilks & Roberts, 1997 untuk mempelajari lebih lanjut tentang masalah pemilihan tingkat penerimaan "baik" yang, tentu saja, akan tergantung pada bentuk distribusi posterior Anda). Tentu saja, dalam kasus ini rantai adalah non-markovian, jadi Anda TIDAK harus menggunakannya untuk inferensi: Anda hanya menggunakannya untuk menyesuaikan varians.0.44