Pertanyaan yang diberi tag «deep-learning»

area baru penelitian Machine Learning yang berkaitan dengan teknologi yang digunakan untuk mempelajari representasi data hirarkis, terutama dilakukan dengan jaringan saraf yang dalam (yaitu jaringan dengan dua atau lebih lapisan tersembunyi), tetapi juga dengan semacam Model Grafis Probabilistik.


1
Menggunakan RNN (LSTM) untuk Sistem Pengenalan Gerakan
Saya mencoba membangun sistem pengenalan gerakan untuk mengklasifikasikan ASL (American Sign Language) Gestures, jadi input saya seharusnya adalah urutan frame baik dari kamera atau file video kemudian mendeteksi urutan dan memetakannya sesuai kelas (tidur, membantu, makan, lari, dll.) Masalahnya adalah saya sudah membangun sistem yang sama tetapi untuk gambar statis …

1
Keras LSTM dengan seri waktu 1D
Saya sedang belajar cara menggunakan Keras dan saya sudah cukup berhasil dengan dataset berlabel menggunakan contoh-contoh pada Chollet's Deep Learning for Python . Kumpulan data adalah ~ 1000 Time Series dengan panjang 3125 dengan 3 kelas potensial. Saya ingin melampaui lapisan Dense dasar yang memberi saya tingkat prediksi sekitar 70% …



1
Pembentukan kembali data untuk pembelajaran mendalam menggunakan Keras
Saya seorang pemula untuk Keras dan saya sudah mulai dengan contoh MNIST untuk memahami bagaimana sebenarnya perpustakaan bekerja. Cuplikan kode masalah MNIST dalam folder Keras contoh diberikan sebagai: import numpy as np np.random.seed(1337) # for reproducibility from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout, Activation, …

1
Mengubah AutoEncoders
Saya baru saja membaca makalah Geoff Hinton tentang mentransformasikan autoencoder Hinton, Krizhevsky dan Wang: Transforming Auto-encoders . Dalam Jaringan Saraf Tiruan dan Pembelajaran Mesin, 2011. dan ingin bermain-main dengan sesuatu seperti ini. Tetapi setelah membacanya saya tidak bisa mendapatkan cukup detail dari koran tentang bagaimana saya benar-benar menerapkannya. Apakah ada …


2
Sortir angka hanya menggunakan 2 lapisan tersembunyi
Saya membaca kertas landasan Sequence to Sequence Learning dengan Neural Networks oleh Ilya Sutskever dan Quoc Le. Pada halaman pertama, secara singkat disebutkan bahwa: A surprising example of the power of DNNs is their ability to sort N N-bit numbers using only 2 hidden layers of quadratic size Adakah yang …

4
Mengapa ini mempercepat gradient descent jika fungsinya halus?
Saya sekarang membaca buku berjudul "Pembelajaran Mesin Langsung dengan Scikit-Learn dan TensorFlow" dan pada bab 11, ia memiliki deskripsi berikut tentang penjelasan ELU (Exponential ReLU). Ketiga, fungsinya halus di mana-mana, termasuk di sekitar z = 0, yang membantu mempercepat Gradient Descent, karena tidak memantul sebanyak kiri dan kanan z = …



1
CARA: Inisialisasi berat jaringan Neural Deep
Mengingat tugas belajar yang sulit (misalnya dimensi tinggi, kompleksitas data yang melekat) Deep Neural Networks menjadi sulit untuk dilatih. Untuk meringankan banyak masalah, orang mungkin: Normalisasi && data kualitas pilihan sendiri pilih algoritma pelatihan yang berbeda (misalnya RMSprop alih-alih Gradient Descent) pilih fungsi Biaya gradien yang lebih curam (mis. Cross …

1
Bagaimana cara menghitung jangka waktu delta dari Lapisan Konvolusional, mengingat syarat dan berat delta dari Lapisan Konvolusional sebelumnya?
Saya mencoba untuk melatih jaringan saraf tiruan dengan dua lapisan convolutional (c1, c2) dan dua lapisan tersembunyi (c1, c2). Saya menggunakan pendekatan backpropagation standar. Dalam pass mundur saya menghitung istilah kesalahan lapisan (delta) berdasarkan kesalahan lapisan sebelumnya, bobot lapisan sebelumnya dan gradien aktivasi sehubungan dengan fungsi aktivasi lapisan saat ini. …

2
Apakah Normalisasi Batch masuk akal untuk fungsi aktivasi ReLU?
Normalisasi Batch dijelaskan dalam makalah ini sebagai normalisasi input ke fungsi aktivasi dengan skala dan variabel bergeserγγ\gamma dan ββ\beta. Makalah ini terutama menjelaskan menggunakan fungsi aktivasi sigmoid, yang masuk akal. Namun, bagi saya tampaknya memberi makan input dari distribusi normal yang dihasilkan oleh normalisasi batch menjadi fungsi aktivasi ReLU darim …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.