Pertanyaan yang diberi tag «deep-learning»

Pembelajaran Mendalam adalah area pembelajaran mesin yang bertujuan untuk mempelajari fungsi kompleks menggunakan arsitektur jaringan saraf khusus yang "dalam" (terdiri dari banyak lapisan). Tag ini harus digunakan untuk pertanyaan tentang implementasi arsitektur deep learning. Pertanyaan umum tentang pembelajaran mesin harus diberi tag "pembelajaran mesin". Menyertakan tag untuk pustaka perangkat lunak yang relevan (misalnya, "keras", "tensorflow", "pytorch", "fast.ai", dan lain-lain) sangat membantu.


3
Memahami Keras LSTMs
Saya mencoba mendamaikan pemahaman saya tentang LSTM dan ditunjukkan di sini di posting ini oleh Christopher Olah diimplementasikan di Keras. Saya mengikuti blog yang ditulis oleh Jason Brownlee untuk tutorial Keras. Yang paling membuat saya bingung adalah, Pembentukan kembali seri data menjadi [samples, time steps, features]dan, LSTM stateful Mari kita …


2
Input keras penjelasan: input_shape, unit, batch_size, redup, dll
Untuk setiap Keras lapisan ( Layerkelas), bisa seseorang menjelaskan bagaimana memahami perbedaan antara input_shape, units, dim, dll? Sebagai contoh, kata doc, unitstentukan bentuk output dari sebuah layer. Pada gambar jaringan syaraf di bawah ini hidden layer1memiliki 4 unit. Apakah ini langsung diterjemahkan ke unitsatribut Layerobjek? Atau apakah unitsdalam Keras sama …




11
Mengapa binary_crossentropy danategical_crossentropy memberikan kinerja yang berbeda untuk masalah yang sama?
Saya mencoba melatih CNN untuk mengkategorikan teks berdasarkan topik. Ketika saya menggunakan cross-entropy biner saya mendapatkan akurasi ~ 80%, dengan cross-entropy kategoris saya mendapatkan akurasi ~ 50%. Saya tidak mengerti mengapa ini terjadi. Ini masalah multikelas, bukankah itu berarti saya harus menggunakan cross-entropy kategoris dan bahwa hasil dengan binary cross-entropy …

8
Apa fungsi tf.nn.embedding_lookup?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Saya tidak dapat memahami tugas dari fungsi ini. Apakah ini seperti tabel pencarian? Yang berarti mengembalikan parameter yang sesuai dengan setiap id (dalam id)? Misalnya, dalam skip-grammodel jika kita gunakan tf.nn.embedding_lookup(embeddings, train_inputs), maka untuk masing-masing train_inputmenemukan embedding yang sesuai?

10
Keras, Bagaimana cara mendapatkan output dari setiap layer?
Saya telah melatih model klasifikasi biner dengan CNN, dan ini kode saya model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = (2048) model.add(Flatten()) model.add(Dense(1024)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(2)) …

13
Mengapa fungsi aktivasi nonlinier harus digunakan di jaringan saraf tiruan propagasi mundur? [Tutup]
Tutup. Pertanyaan ini tidak memenuhi pedoman Stack Overflow . Saat ini tidak menerima jawaban. Ingin memperbaiki pertanyaan ini? Perbarui pertanyaan agar sesuai dengan topik untuk Stack Overflow. Tutup 3 bulan lalu . Perbaiki pertanyaan ini Saya telah membaca beberapa hal di jaringan saraf dan saya memahami prinsip umum jaringan saraf …



5
Apa peran "Ratakan" di Keras?
Saya mencoba memahami peran Flattenfungsi di Keras. Di bawah ini adalah kode saya, yang merupakan jaringan dua lapis sederhana. Ini mengambil data bentuk 2 dimensi (3, 2), dan mengeluarkan data bentuk 1 dimensi (1, 4): model = Sequential() model.add(Dense(16, input_shape=(3, 2))) model.add(Activation('relu')) model.add(Flatten()) model.add(Dense(4)) model.compile(loss='mean_squared_error', optimizer='SGD') x = np.array([[[1, 2], …

2
Banyak ke satu dan banyak hingga banyak contoh LSTM di Keras
Saya mencoba untuk memahami LSTM dan bagaimana membangunnya dengan Keras. Saya menemukan, bahwa pada dasarnya ada 4 mode untuk menjalankan RNN (4 mode yang tepat di gambar) Sumber gambar: Andrej Karpathy Sekarang saya bertanya-tanya bagaimana cuplikan kode minimalis untuk masing-masing akan terlihat di Keras. Jadi seperti itu model = Sequential() …

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.