Saya telah membaca beberapa penjelasan tentang algoritma EM (misalnya dari Pengenalan Pola Bishop dan Pembelajaran Mesin dan dari Kursus Pertama Roger dan Gerolami tentang Pembelajaran Mesin). Derivasi EM itu ok, saya mengerti. Saya juga mengerti mengapa algoritma menutupi sesuatu: pada setiap langkah kita meningkatkan hasil dan kemungkinan dibatasi oleh 1.0, jadi dengan menggunakan fakta sederhana (jika suatu fungsi bertambah dan dibatasi maka konvergen) kita tahu bahwa algoritma konvergen ke beberapa solusi.
Namun, bagaimana kita tahu itu minimum lokal? Pada setiap langkah, kami hanya mempertimbangkan satu koordinat (baik variabel laten atau parameter), jadi kami mungkin kehilangan sesuatu, seperti minimum lokal yang mengharuskan pemindahan dengan kedua koordinat sekaligus.
Ini saya percaya adalah masalah yang mirip dengan kelas umum dari algoritma mendaki bukit, yang merupakan contoh EM. Jadi untuk algoritma pendakian bukit umum kita memiliki masalah ini untuk fungsi f (x, y) = x * y. Jika kita mulai dari titik (0, 0), maka hanya dengan mempertimbangkan kedua arah sekaligus kita dapat bergerak ke atas dari nilai 0.