Pertanyaan yang diberi tag «neural-network»

Struktur jaringan diilhami oleh model sederhana dari neuron biologis (sel otak). Jaringan saraf dilatih untuk "belajar" dengan teknik yang diawasi dan tidak diawasi, dan dapat digunakan untuk memecahkan masalah pengoptimalan, masalah perkiraan, mengklasifikasikan pola, dan kombinasinya.


9
Memesan normalisasi batch dan putus sekolah?
Pertanyaan awal terkait dengan implementasi TensorFlow secara khusus. Namun, jawabannya adalah untuk implementasi secara umum. Jawaban umum ini juga merupakan jawaban yang benar untuk TensorFlow. Saat menggunakan normalisasi batch dan dropout di TensorFlow (secara khusus menggunakan contrib.layers), apakah saya perlu khawatir tentang pengurutannya? Tampaknya mungkin jika saya menggunakan dropout diikuti …

4
Argumen Langkah Tensorflow
Saya mencoba untuk memahami argumen langkah di tf.nn.avg_pool, tf.nn.max_pool, tf.nn.conv2d. The dokumentasi berulang kali mengatakan strides: Daftar int yang memiliki panjang> = 4. Langkah dari jendela geser untuk setiap dimensi tensor input. Pertanyaan saya adalah: Apa yang diwakili oleh masing-masing dari 4+ bilangan bulat? Mengapa mereka harus memiliki langkah [0] …

4
Pytorch, apa saja argumen gradien
Saya membaca dokumentasi PyTorch dan menemukan contoh di mana mereka menulis gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad) di mana x adalah variabel awal, dari mana y dibangun (vektor 3). Pertanyaannya adalah, apa argumen 0.1, 1.0 dan 0.0001 dari tensor gradien? Dokumentasinya tidak terlalu jelas tentang itu.

3
Apa perbedaan antara sparse_softmax_cross_entropy_with_logits dan softmax_cross_entropy_with_logits?
Saya baru-baru ini menemukan tf.nn.sparse_softmax_cross_entropy_with_logits dan saya tidak tahu apa perbedaannya dibandingkan dengan tf.nn.softmax_cross_entropy_with_logits . Apakah satu-satunya perbedaan bahwa vektor pelatihan yharus dienkode dengan one-hot saat menggunakan sparse_softmax_cross_entropy_with_logits? Membaca API, saya tidak dapat menemukan perbedaan lain apa pun dibandingkan softmax_cross_entropy_with_logits. Tapi mengapa kita membutuhkan fungsi ekstra? Tidakkah seharusnya softmax_cross_entropy_with_logitsmenghasilkan hasil …


5
Apa peran "Ratakan" di Keras?
Saya mencoba memahami peran Flattenfungsi di Keras. Di bawah ini adalah kode saya, yang merupakan jaringan dua lapis sederhana. Ini mengambil data bentuk 2 dimensi (3, 2), dan mengeluarkan data bentuk 1 dimensi (1, 4): model = Sequential() model.add(Dense(16, input_shape=(3, 2))) model.add(Activation('relu')) model.add(Flatten()) model.add(Dense(4)) model.compile(loss='mean_squared_error', optimizer='SGD') x = np.array([[[1, 2], …

2
Banyak ke satu dan banyak hingga banyak contoh LSTM di Keras
Saya mencoba untuk memahami LSTM dan bagaimana membangunnya dengan Keras. Saya menemukan, bahwa pada dasarnya ada 4 mode untuk menjalankan RNN (4 mode yang tepat di gambar) Sumber gambar: Andrej Karpathy Sekarang saya bertanya-tanya bagaimana cuplikan kode minimalis untuk masing-masing akan terlihat di Keras. Jadi seperti itu model = Sequential() …

9
Mengapa bobot Jaringan Neural harus diinisialisasi ke nomor acak? [Tutup]
Tutup. Pertanyaan ini tidak memenuhi pedoman Stack Overflow . Saat ini tidak menerima jawaban. Ingin memperbaiki pertanyaan ini? Perbarui pertanyaan agar sesuai dengan topik untuk Stack Overflow. Tutup 3 hari yang lalu . Perbaiki pertanyaan ini Saya mencoba membangun jaringan saraf dari awal. Di semua literatur AI ada konsensus bahwa …


6
Memuat model Keras yang terlatih dan melanjutkan pelatihan
Saya ingin tahu apakah mungkin untuk menyimpan model Keras yang sebagian terlatih dan melanjutkan pelatihan setelah memuat model lagi. Alasannya adalah saya akan memiliki lebih banyak data pelatihan di masa mendatang dan saya tidak ingin melatih ulang seluruh model lagi. Fungsi yang saya gunakan adalah: #Partly train model model.fit(first_training, first_classes, …


10
Bagaimana cara menambahkan regularisasi di TensorFlow?
Saya menemukan di banyak kode jaringan neural yang tersedia yang diimplementasikan menggunakan TensorFlow bahwa istilah regularisasi sering diterapkan dengan menambahkan istilah tambahan ke nilai kerugian secara manual. Pertanyaan saya adalah: Apakah ada cara regularisasi yang lebih elegan atau disarankan daripada melakukannya secara manual? Saya juga menemukan bahwa get_variableada argumen regularizer. …

6
PyTorch - contiguous ()
Saya telah melalui contoh model bahasa LSTM ini di github (tautan) . Apa yang dilakukannya secara umum cukup jelas bagi saya. Tapi saya masih berjuang untuk memahami apa contiguous()fungsi panggilan , yang terjadi beberapa kali dalam kode. Misalnya pada baris 74/75 dari input kode dan urutan target LSTM dibuat. Data …


Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.