Struktur Jaringan Syaraf Berulang (LSTM, GRU)


Jawaban:


8

httxtht-1

ht


htctxt

6

Dalam gambar Anda A adalah lapisan tersembunyi tunggal dengan Neuron tersembunyi tunggal. Dari kiri ke kanan adalah sumbu waktu, dan di bagian bawah Anda menerima input setiap saat. Di bagian atas jaringan dapat diperluas lebih lanjut dengan menambahkan lapisan.

Jika Anda akan membuka jaringan ini tepat waktu, seperti yang ditunjukkan secara visual dalam gambar Anda (dari kiri ke kanan sumbu waktu dibuka) maka Anda akan mendapatkan jaringan feedforward dengan T (jumlah total langkah waktu) lapisan tersembunyi masing-masing berisi simpul tunggal (neuron) seperti yang digambarkan di blok A tengah.

Semoga ini menjawab pertanyaan Anda.


3

Saya ingin menjelaskan diagram sederhana dalam konteks yang relatif rumit: mekanisme perhatian dalam dekoder model seq2seq.

h0hk-1xsaya. Saya menggambarkan masalah Anda menggunakan ini karena semua negara bagian timestep disimpan untuk mekanisme perhatian daripada hanya dibuang hanya untuk mendapatkan yang terakhir. Ini hanya satu neural dan dipandang sebagai lapisan (beberapa lapisan dapat ditumpuk untuk membentuk misalnya bidirectional encoder dalam beberapa model seq2seq untuk mengekstrak informasi yang lebih abstrak di lapisan yang lebih tinggi).

Itu kemudian menyandikan kalimat (dengan kata-kata L dan masing-masing diwakili sebagai vektor bentuk: embedding_dimention * 1) ke dalam daftar tensor L (masing-masing bentuk: num_hidden / num_units * 1). Dan state past to the decoder hanyalah vektor terakhir sebagai embedding kalimat dengan bentuk yang sama dari setiap item dalam daftar.

masukkan deskripsi gambar di sini
Sumber gambar: Mekanisme Perhatian

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.