Saya memperluas pengetahuan saya tentang paket Keras dan saya telah menggunakan beberapa model yang tersedia. Saya memiliki masalah klasifikasi biner NLP yang saya coba selesaikan dan telah menerapkan berbagai model.
Setelah bekerja dengan beberapa hasil dan membaca lebih banyak tentang LSTM, sepertinya pendekatan ini jauh lebih unggul daripada yang lain yang pernah saya coba (melintasi banyak dataset). Saya terus berpikir, "mengapa / kapan Anda tidak menggunakan LSTM?". Penggunaan gerbang tambahan, yang melekat pada LSTM, masuk akal bagi saya setelah memiliki beberapa model yang menderita gradien hilang.
Jadi apa masalahnya dengan LSTM? Di mana mereka tidak melakukannya dengan baik? Saya tahu tidak ada yang namanya algoritma "satu ukuran cocok untuk semua", jadi pasti ada kerugian untuk LSTM.