Jadi dalam pemodelan teks (tanpa pengawasan), Latent Dirichlet Allocation (LDA) adalah versi Bayesian dari Probabilistic Latent Semantic Analysis (PLSA). Intinya, LDA = PLSA + Dirichlet sebelum parameternya. Pemahaman saya adalah bahwa LDA sekarang menjadi algoritma referensi dan diimplementasikan dalam berbagai paket, sementara PLSA seharusnya tidak digunakan lagi.
Tetapi dalam kategorisasi teks (diawasi), kita bisa melakukan hal yang persis sama untuk classifier Naive Bayes multinomial dan menempatkan Dirichlet di atas parameter. Tapi saya tidak berpikir saya pernah melihat ada yang melakukan itu, dan versi "estimasi titik" dari Multinomial Naive Bayes tampaknya adalah versi yang diterapkan di sebagian besar paket. Apakah ada alasan untuk itu?