Menggunakan multi-layer LSTM
dengan dropout, apakah disarankan untuk meletakkan dropout pada semua layer yang tersembunyi serta output layer padat? Dalam makalah Hinton (yang mengusulkan Dropout) ia hanya menempatkan Dropout pada layer Dense, tapi itu karena lapisan dalam yang tersembunyi bersifat convolutional.
Jelas, saya dapat menguji untuk model spesifik saya, tetapi saya bertanya-tanya apakah ada konsensus tentang ini?