Sejauh yang saya tahu, SOMs gaya Kohonen memiliki puncak kembali sekitar tahun 2005 dan belum melihat banyak bantuan baru-baru ini. Saya belum menemukan kertas yang mengatakan bahwa SOM telah digolongkan dengan metode lain, atau terbukti setara dengan yang lain (pada dimensi yang lebih tinggi, bagaimanapun). Tetapi sepertinya tSNE dan metode lainnya mendapatkan lebih banyak tinta sekarang-sehari, misalnya di Wikipedia, atau di SciKit Learn, dan SOM lebih disebut sebagai metode historis.
(Sebenarnya, artikel Wikipedia tampaknya menunjukkan bahwa SOM terus memiliki keunggulan tertentu dibandingkan pesaing, tetapi juga entri terpendek dalam daftar. EDIT: Permintaan per gung, salah satu artikel yang saya pikirkan adalah: Non Dimensi Dimensi Perhatikan bahwa SOM memiliki lebih sedikit tulisan tentang hal itu daripada metode lainnya. Saya tidak dapat menemukan artikel yang menyebutkan keuntungan yang tampaknya dipertahankan oleh SOM dibandingkan sebagian besar metode lain.)
Ada wawasan? Seseorang bertanya mengapa SOM tidak digunakan, dan mendapat referensi dari beberapa waktu yang lalu, dan saya telah menemukan proses dari konferensi SOM, tetapi bertanya-tanya apakah kebangkitan SVM atau tSNE, dkk, hanya melampaui SOM dalam pembelajaran mesin pop.
EDIT 2: Secara kebetulan, saya baru saja membaca survei 2008 tentang pengurangan dimensi nonlinier malam ini, dan untuk contoh itu hanya menyebutkan: Isomap (2000), embedding linier lokal (LLE) (2000), Hessian LLE (2003), Laplacian eigenmaps (2003), dan semidefinite embedding (SDE) (2004).