Salah satu hyperparameter untuk jaringan LSTM adalah suhu. Apa itu?
Salah satu hyperparameter untuk jaringan LSTM adalah suhu. Apa itu?
Jawaban:
Temperatur adalah hiperparameter LSTMs (dan jaringan saraf umumnya) yang digunakan untuk mengontrol keacakan prediksi dengan menskalakan log sebelum menerapkan softmax. Misalnya, di Magenta TensorFlow ini implementasi dari LSTMs, suhu mewakili berapa banyak untuk membagi logits oleh sebelum komputasi Softmax tersebut.
Ketika suhu 1, kami menghitung softmax langsung pada logit (output unscaled dari lapisan sebelumnya), dan menggunakan suhu 0,6 model menghitung softmax pada , menghasilkan nilai yang lebih besar. Melakukan softmax pada nilai yang lebih besar membuat LSTMlebih percaya diri(lebih sedikit input diperlukan untuk mengaktifkan lapisan output) tetapi jugalebih konservatifdalam sampelnya (lebih kecil kemungkinannya untuk sampel dari kandidat yang tidak mungkin). Menggunakan suhu yang lebih tinggi menghasilkan distribusi probabilitas yang lebih lembut di atas kelas, dan membuat RNN lebih "mudah bergairah" dengan sampel, menghasilkanlebih banyak keragamandan jugalebih banyak kesalahan.
Jaringan saraf menghasilkan probabilitas kelas dengan vektor logit mana z = ( z 1 , ... , z n ) dengan melakukan fungsi softmax untuk menghasilkan vektor probabilitas q = ( q 1 , ... , q n ) dengan membandingkan z i dengan log lainnya. .
Fungsi softmax menormalkan kandidat pada setiap iterasi jaringan berdasarkan nilai eksponensial mereka dengan memastikan output jaringan semuanya antara nol dan satu pada setiap catatan waktu.
Oleh karena itu suhu meningkatkan sensitivitas terhadap kandidat probabilitas rendah. Dalam LSTM, kandidat, atau sampel, dapat berupa surat, kata, atau not musik, misalnya:
- dari artikel Wikipedia tentang fungsi softmax
Hinton, Geoffrey, Oriol Vinyals, dan Jeff Dean. "Menyaring pengetahuan dalam jaringan saraf." arXiv preprint arXiv: 1503.02531 (2015). arXiv