Dengan mengorbankan penyederhanaan berlebihan, fitur laten adalah fitur 'tersembunyi' untuk membedakannya dari fitur yang diamati. Fitur laten dihitung dari fitur yang diamati menggunakan faktorisasi matriks. Contohnya adalah analisis dokumen teks. 'kata-kata' yang diekstrak dari dokumen adalah fitur. Jika Anda memfaktisasi data kata, Anda dapat menemukan 'topik', di mana 'topik' adalah sekelompok kata dengan relevansi semantik. Matriks peringkat rendah memetakan beberapa baris (fitur yang diamati) ke satu set baris yang lebih kecil (fitur laten). Singkatnya, dokumen itu bisa mengamati fitur (kata-kata) seperti [perahu layar, sekunar, kapal pesiar, kapal uap, kapal penjelajah] yang akan 'memfaktorkan' ke fitur laten (topik) seperti 'kapal' dan 'kapal'.
[kapal layar, sekunar, kapal penangkap ikan, kapal uap, kapal penjelajah, ...] -> [kapal, kapal]
Gagasan yang mendasarinya adalah bahwa fitur laten 'agregat' semantik yang relevan dari fitur yang diamati. Saat Anda memiliki fitur yang diamati secara besar-besaran, berdimensi tinggi, dan berisik, masuk akal untuk membuat classifier Anda pada fitur laten.
Ini tentu saja deskripsi yang disederhanakan untuk menjelaskan konsep. Anda dapat membaca detail tentang Latent Dirichlet Allocation (LDA) atau probabilistic Latantic Semantic Analysis (pLSA) model untuk deskripsi yang akurat.