Pertanyaan yang diberi tag «deep-learning»

Area pembelajaran mesin berkaitan dengan pembelajaran representasi hirarkis data, terutama dilakukan dengan jaringan saraf yang mendalam.


1
Apa sebenarnya blok Pembelajaran Residual dalam konteks Deep Residual Networks in Deep Learning?
Saya membaca makalah Deep Residual Learning untuk Pengenalan Gambar dan saya mengalami kesulitan memahami dengan kepastian 100% apa yang diperlukan oleh blok residual secara komputasi. Membaca makalah mereka, mereka memiliki angka 2: yang menggambarkan apa yang seharusnya menjadi Blok Residual. Apakah perhitungan blok residu sama dengan: y=σ(W2σ(W1x+b1)+b2+x)y=σ(W2σ(W1x+b1)+b2+x) \mathbf{y} = \sigma( …

2
Gunakan koefisien korelasi Pearson sebagai tujuan optimisasi dalam pembelajaran mesin
Dalam pembelajaran mesin (untuk masalah regresi), saya sering melihat mean-squared-error (MSE) atau mean-absolute-error (MAE) digunakan sebagai fungsi kesalahan untuk meminimalkan (ditambah istilah regularisasi). Saya bertanya-tanya apakah ada situasi di mana menggunakan koefisien korelasi akan lebih sesuai? jika situasi seperti itu ada, maka: Dalam situasi apa koefisien korelasi metrik lebih baik …

3
Pengkodean Tanggal / Waktu (data cyclic) untuk Neural Networks
Bagaimana cara menyandikan tanggal dan waktu acara untuk jaringan saraf? Saya tidak memiliki rangkaian waktu terus menerus, tetapi beberapa peristiwa dengan tanggal dan waktu, dan saya menganalisis beberapa jenis minat. Ketertarikan ini berbeda antara pagi dan malam, dan berbeda antara hari kerja, dan antara musim panas dan musim dingin, dan …


4
Seberapa berarti hubungan antara MLE dan lintas entropi dalam pembelajaran yang mendalam?
Saya mengerti bahwa diberikan satu set pengamatan independen yang Maximum Likelihood Estimator (atau, sama, MAP dengan datar / seragam sebelumnya) yang mengidentifikasi parameter yang menghasilkan distribusi Model p_ {Model} \ kiri (\, \ cdot \,; \ mathbf {θ} \ kanan) yang paling cocok dengan pengamatan itu adalahmmmO={o(1),...,o(m)}O={o(1),...,o(m)}\mathbb{O}=\{\mathbf{o}^{(1)}, . . . …

3
Non-linearitas sebelum lapisan Softmax akhir dalam jaringan saraf convolutional
Saya sedang belajar dan mencoba menerapkan jaringan saraf convolutional, tetapi saya kira pertanyaan ini berlaku untuk perceptrons multilayer secara umum. Neuron keluaran di jaringan saya mewakili aktivasi setiap kelas: neuron paling aktif sesuai dengan kelas prediksi untuk input yang diberikan. Untuk mempertimbangkan biaya lintas-entropi untuk pelatihan, saya menambahkan lapisan softmax …






1
Perkiraan urutan kedua dari fungsi kehilangan (buku pembelajaran Deep, 7.33)
Dalam buku Goodfellow (2016) tentang pembelajaran yang mendalam, ia berbicara tentang kesetaraan dari berhenti dini untuk regularisasi L2 ( https://www.deeplearningbook.org/contents/regularization.html halaman 247). Perkiraan kuadrat dari fungsi biaya jjj diberikan oleh: J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)J^(θ)=J(w∗)+12(w−w∗)TH(w−w∗)\hat{J}(\theta)=J(w^*)+\frac{1}{2}(w-w^*)^TH(w-w^*) HHHf(w+ϵ)=f(w)+f′(w)⋅ϵ+12f′′(w)⋅ϵ2f(w+ϵ)=f(w)+f′(w)⋅ϵ+12f″(w)⋅ϵ2f(w+\epsilon)=f(w)+f'(w)\cdot\epsilon+\frac{1}{2}f''(w)\cdot\epsilon^2

4
Kesimpulan bebas kemungkinan - apa artinya?
Baru-baru ini saya menjadi sadar akan metode 'bebas-kemungkinan' yang dibicarakan dalam literatur. Namun saya tidak jelas apa artinya inferensi atau metode optimasi menjadi bebas kemungkinan . Dalam pembelajaran mesin, tujuannya biasanya untuk memaksimalkan kemungkinan beberapa parameter agar sesuai dengan suatu fungsi misalnya bobot pada jaringan saraf. Jadi apa sebenarnya filosofi …


Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.