Jawabannya tergantung pada apakah Anda mengasumsikan distribusi dirichlet simetris atau asimetris (atau, lebih teknis, apakah ukuran dasar seragam). Kecuali sesuatu yang lain ditentukan, sebagian besar implementasi LDA menganggap distribusi simetris.
Untuk distribusi simetris, nilai alfa tinggi berarti bahwa setiap dokumen cenderung berisi campuran sebagian besar topik, dan bukan topik tunggal mana pun secara khusus. Nilai alfa yang rendah mengurangi kendala pada dokumen dan berarti kemungkinan besar dokumen berisi campuran beberapa, atau bahkan hanya satu, dari topik. Demikian juga, nilai beta yang tinggi berarti bahwa setiap topik cenderung mengandung campuran sebagian besar kata, dan bukan kata apa pun secara khusus, sedangkan nilai yang rendah berarti bahwa suatu topik dapat mengandung campuran hanya beberapa kata saja.
Jika, di sisi lain, distribusinya asimetris, nilai alpha tinggi berarti bahwa distribusi topik tertentu (tergantung pada ukuran dasar) lebih mungkin untuk setiap dokumen. Demikian pula, nilai beta tinggi berarti setiap topik lebih cenderung mengandung campuran kata tertentu yang ditentukan oleh ukuran dasar.
Dalam praktiknya, nilai alpha tinggi akan menyebabkan dokumen menjadi lebih mirip dalam hal topik apa yang dikandungnya. Nilai beta yang tinggi juga akan menyebabkan topik menjadi lebih mirip dalam hal kata-kata yang dikandungnya.
Jadi, ya, parameter alpha menentukan keyakinan sebelumnya tentang sparsity / keseragaman topik dalam dokumen. Saya tidak sepenuhnya yakin apa yang Anda maksud dengan "saling eksklusif topik dalam hal kata-kata".
Secara umum, ini adalah parameter konsentrasi untuk distribusi balon yang digunakan dalam model LDA. Untuk mendapatkan pemahaman intuitif tentang cara kerjanya, presentasi ini berisi beberapa ilustrasi yang bagus, serta penjelasan yang baik tentang LDA secara umum.
( α1, α2, . . . , αK)u = ( kamu1, kamu2, . . . , kamuK)αα ∗ u = ( α1, α2, . . . , αK)α( α1, α2, . . . , αK)( α1, α2, . . . , αK)