Saya bukan ahli dalam word2vec, tetapi setelah membaca Rong, X. (2014). word2vec Parameter Pembelajaran Dijelaskan dan dari pengalaman NN saya sendiri, saya menyederhanakan alasan untuk ini:
- O ( l o g( N) )O ( N)
- Pengambilan sampel negatif adalah cara untuk mengambil sampel data pelatihan, mirip dengan penurunan gradien stokastik, tetapi kuncinya adalah Anda mencari contoh pelatihan negatif. Secara intuitif, itu melatih berdasarkan tempat pengambilan sampel yang mungkin diharapkan sebuah kata, tetapi tidak menemukan satu, yang lebih cepat daripada melatih seluruh korpus setiap iterasi dan masuk akal untuk kata-kata umum.
Kedua metode ini tampaknya tidak eksklusif, secara teoritis, tetapi bagaimanapun juga itulah sebabnya mereka lebih baik untuk kata-kata yang sering dan jarang.