Apa pro & kontra dari kedua metode tersebut?
Apa pro & kontra dari kedua metode tersebut?
Jawaban:
Estimasi kemungkinan maksimum adalah pendekatan umum untuk memperkirakan parameter dalam model statistik dengan memaksimalkanfungsi kemungkinan didefinisikan sebagai
yaitu, probabilitas memperoleh data diberi beberapa nilai parameter θ . Mengetahui fungsi kemungkinan untuk masalah yang diberikan, Anda dapat mencari θ yang memaksimalkan kemungkinan mendapatkan data yang Anda miliki. Kadang-kadang kita telah mengetahui estimator, mis. Rata-rata aritmatika adalah estimator MLE untuk parameter μ untuk distribusi normal , tetapi dalam kasus lain Anda dapat menggunakan metode berbeda yang mencakup penggunaan algoritma optimasi. Pendekatan ML tidak memberi tahu Anda bagaimana menemukan nilai optimal θ - Anda dapat mengambil tebakan dan menggunakan kemungkinan untuk membandingkan tebakan mana yang lebih baik - itu hanya memberi tahu Anda bagaimana Anda dapat membandingkan jika satu nilai dari "lebih mungkin" daripada yang lain.
Gradient descent adalah algoritma optimasi . Anda dapat menggunakan algoritma ini untuk menemukan minimum (atau maksimum, maka itu disebut gradient ascent ) dari berbagai fungsi. Algoritma tidak benar-benar peduli apa fungsi yang diminimalisir, hanya melakukan apa yang diminta. Jadi dengan menggunakan algoritme pengoptimalan, Anda harus tahu, bagaimana mungkin Anda bisa tahu apakah satu nilai dari parameter yang diminati "lebih baik" daripada yang lain. Anda harus menyediakan algoritma Anda beberapa fungsi untuk meminimalkan dan algoritma akan berurusan dengan menemukan minimumnya.
Anda dapat memperoleh perkiraan kemungkinan maksimum menggunakan metode yang berbeda dan salah satunya menggunakan algoritma optimasi. Di sisi lain, gradient descent dapat juga digunakan untuk memaksimalkan fungsi selain fungsi kemungkinan.
Biasanya, ketika kita mendapatkan fungsi kemungkinan
kita bisa mendapatkan nilai
f
, selesai!
Tapi kemungkinan fungsi regresi logistik tidak ada solusi bentuk tertutup dengan cara ini. Jadi kita harus menggunakan metode lain, seperti gradient descent
.
likelihood function
+ gradient descent
(yang untuk mendapatkan solusi fungsi kemungkinan) masih merupakan cara untuk melakukan MLE.
Unlike linear regression, we can no longer write down the MLE in closed form. Instead, we need to use an optimization algorithm to compute it. For this, we need to derive the gradient and Hessian.
dari Machine Learning: Perspektif Probabilistik, Kevin Murphy.