Ya, Anda dapat memanfaatkan model pra-terlatih. Yang paling terkenal adalah model terlatih GoogleNewsData yang dapat Anda temukan di sini.
Vektor kata dan frasa pra-terlatih https://drive.google.com/file/d/0B7XkCwpI5KDYNlNUTTlSS21pQmM/edit?usp=sharing
Anda kemudian dapat memuat vektor dalam format biner dalam model Anda menggunakan gensim seperti yang ditunjukkan di bawah ini.
>>> model = Word2Vec.load_word2vec_format('/tmp/vectors.txt', binary=False) # C text format
>>> model = Word2Vec.load_word2vec_format('/tmp/vectors.bin', binary=True) # C binary format
Berikut adalah model pra-bangun yang berbeda untuk Wikipedia bahasa Inggris:
https://github.com/idio/wiki2vec/raw/master/torrents/enwiki-gensim-word2vec-1000-nostem-10cbow.torrent
Sumber: https://github.com/idio/wiki2vec/
Menggunakan model prebuilt
Get python 2.7
Install gensim: pip install gensim
uncompress downloaded model: tar -xvf model.tar.gz
Load model in gensim:
from gensim.models import Word2Vec
model = Word2Vec.load("path/to/word2vec/en.model")
model.similarity('woman', 'man')
Anda juga dapat menggunakan Stanford NLP Glove
Berikut ini adalah kompilasi model word2vec yang telah dilatih sebelumnya.
Beberapa model pra-pelatihan tambahan:
Lebih lanjut tentang gensim dan kode di sini: https://radimrehurek.com/gensim/models/word2vec.html
Forum Quora dengan pertanyaan serupa