estimator ML menghasilkan nilai untuk parameter yang paling mungkin terjadi dalam dataset.
Dengan asumsi tersebut, estimator ML adalah nilai parameter yang memiliki peluang terbaik untuk menghasilkan set data.
Saya tidak bisa secara intuitif memahami estimator ML yang bias dalam arti bahwa "Bagaimana mungkin nilai yang paling mungkin untuk parameter memprediksi nilai sebenarnya dari parameter dengan bias terhadap nilai yang salah?"
Bias adalah tentang ekspektasi distribusi sampling. "Kemungkinan besar menghasilkan data" bukan tentang ekspektasi distribusi sampel. Mengapa mereka diharapkan untuk pergi bersama?
Apa dasar yang mengejutkan mereka tidak perlu berkorespondensi?
Saya sarankan Anda mempertimbangkan beberapa kasus sederhana MLE dan merenungkan bagaimana perbedaan muncul dalam kasus-kasus tertentu.
Sebagai contoh, perhatikan pengamatan pada seragam pada . Pengamatan terbesar adalah (tentu saja) tidak lebih besar dari parameter, sehingga parameter hanya dapat mengambil nilai setidaknya sebesar pengamatan terbesar.(0,θ)
Ketika Anda mempertimbangkan kemungkinan , itu (jelas) lebih besar semakin dekat adalah dengan pengamatan terbesar. Jadi dimaksimalkan pada pengamatan terbesar; itu jelas perkiraan untuk yang memaksimalkan peluang untuk mendapatkan sampel yang Anda dapatkan:θθθ
Tetapi di sisi lain itu harus bias, karena pengamatan terbesar jelas (dengan probabilitas 1) lebih kecil dari nilai sebenarnya dari ; setiap perkiraan lain dari belum dikesampingkan oleh sampel itu sendiri harus lebih besar dari itu, dan harus (cukup jelas dalam kasus ini) lebih kecil kemungkinannya untuk menghasilkan sampel.θθ
Ekspektasi pengamatan terbesar dari adalah , jadi cara biasa untuk unbias adalah dengan mengambil sebagai estimator dari : , di mana adalah observasi terbesar.U(0,θ)nn+1θθ^=n+1nX(n)X(n)
Ini terletak di sebelah kanan MLE, dan karena itu memiliki kemungkinan lebih rendah.