Dalam pertanyaan populer ini , jawaban terangkat tinggi membuat MLE dan Baum Welch terpisah dalam fitting HMM.
Untuk masalah pelatihan, kita dapat menggunakan 3 algoritme berikut: MLE (estimasi kemungkinan maksimum), pelatihan Viterbi (JANGAN bingung dengan decoding Viterbi), Baum Welch = algoritma maju-mundur
TETAPI di Wikipedia , katanya
Algoritma Baum-Welch menggunakan algoritma EM yang terkenal untuk menemukan estimasi kemungkinan maksimum dari parameter
Jadi, apa hubungan antara algoritma MLE dan Baum-Welch?
Upaya saya: Tujuan untuk algoritma Baum-Welch adalah memaksimalkan kemungkinan, tetapi menggunakan algoritma khusus (EM) untuk menyelesaikan optimasi. Kami masih dapat memaksimalkan kemungkinan dengan menggunakan metode lain seperti gradient decent. Inilah sebabnya mengapa jawabannya membuat dua algoritma terpisah.
Apakah saya benar dan ada yang bisa membantu saya untuk mengklarifikasi?