Pertanyaan yang diberi tag «softmax»

Normalisasi fungsi eksponensial yang mengubah vektor numerik sehingga semua entri menjadi antara 0 dan 1 dan bersama-sama berjumlah 1. Fungsi ini sering digunakan sebagai lapisan akhir jaringan saraf yang melakukan tugas klasifikasi.


6
Backpropagation dengan Softmax / Cross Entropy
Saya mencoba memahami bagaimana backpropagation bekerja untuk lapisan output softmax / cross-entropy. Fungsi kesalahan lintas entropi adalah E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j dengan ttt dan ooo sebagai target dan output pada neuron jjj , masing-masing. Jumlahnya adalah di atas setiap neuron di lapisan output. ojojo_j itu sendiri merupakan hasil dari fungsi …

1
Entri Silang atau Kemungkinan Log di lapisan Output
Saya membaca halaman ini: http://neuralnetworksanddeeplearning.com/chap3.html dan dikatakan bahwa lapisan keluaran sigmoid dengan cross-entropy cukup mirip dengan lapisan keluaran softmax dengan kemungkinan log. apa yang terjadi jika saya menggunakan sigmoid dengan log-likelihood atau softmax dengan cross entropy pada layer output? itu baik? karena saya melihat hanya ada sedikit perbedaan dalam persamaan …

4
Mengapa output softmax bukan ukuran ketidakpastian yang baik untuk model Deep Learning?
Saya telah bekerja dengan Convolutional Neural Networks (CNNs) untuk beberapa waktu sekarang, sebagian besar pada data gambar untuk segmentasi semantik / contoh segmentasi. Saya sering memvisualisasikan softmax dari output jaringan sebagai "peta panas" untuk melihat seberapa tinggi per pixel aktivasi untuk kelas tertentu. Saya telah menafsirkan aktivasi rendah sebagai prediksi …

2
Mengapa fungsi softmax digunakan untuk menghitung probabilitas meskipun kita dapat membagi setiap nilai dengan jumlah vektor?
Menerapkan fungsi softmax pada vektor akan menghasilkan "probabilitas" dan nilai antara dan . 000111 Tetapi kita juga dapat membagi setiap nilai dengan jumlah vektor dan itu akan menghasilkan probabilitas dan nilai antara dan .000111 Saya membaca jawabannya di sini tetapi mengatakan bahwa alasannya adalah karena itu dapat dibedakan, meskipun Kedua …


1
Caret glmnet vs cv.glmnet
Tampaknya ada banyak kebingungan dalam perbandingan menggunakan di glmnetdalam caretuntuk mencari lambda yang optimal dan menggunakan cv.glmnetuntuk melakukan tugas yang sama. Banyak pertanyaan diajukan, misalnya: Klasifikasi model train.glmnet vs. cv.glmnet? Apa cara yang tepat untuk menggunakan glmnet dengan caret? Validasi silang `glmnet` menggunakan` caret` tetapi tidak ada jawaban yang diberikan, …


2
Definisi berbeda dari fungsi kehilangan lintas entropi
Saya mulai belajar tentang jaringan saraf dengan tutorial neuralnetworksanddeeplearning dot com. Khususnya di bab ke - 3 ada bagian tentang fungsi cross entropy, dan mendefinisikan cross entropy loss sebagai: C=−1n∑x∑j(yjlnaLj+(1−yj)ln(1−aLj))C=−1n∑x∑j(yjln⁡ajL+(1−yj)ln⁡(1−ajL))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j \ln a^L_j + (1-y_j) \ln (1 - a^L_j)) Namun, membaca pengantar Tensorflow , cross entropy …

2
Seberapa dalam hubungan antara fungsi softmax dalam ML dan distribusi Boltzmann dalam termodinamika?
Fungsi softmax, yang biasa digunakan dalam jaringan saraf untuk mengubah bilangan real menjadi probabilitas, adalah fungsi yang sama dengan distribusi Boltzmann, distribusi probabilitas atas energi untuk ensembel partikel dalam kesetimbangan termal pada suhu T yang diberikan dalam termodinamika. Saya dapat melihat beberapa alasan heuristik yang jelas mengapa ini praktis: Tidak …

3
Non-linearitas sebelum lapisan Softmax akhir dalam jaringan saraf convolutional
Saya sedang belajar dan mencoba menerapkan jaringan saraf convolutional, tetapi saya kira pertanyaan ini berlaku untuk perceptrons multilayer secara umum. Neuron keluaran di jaringan saya mewakili aktivasi setiap kelas: neuron paling aktif sesuai dengan kelas prediksi untuk input yang diberikan. Untuk mempertimbangkan biaya lintas-entropi untuk pelatihan, saya menambahkan lapisan softmax …

1
Softmax overflow [ditutup]
Tutup. Pertanyaan ini di luar topik . Saat ini tidak menerima jawaban. Ingin meningkatkan pertanyaan ini? Perbarui pertanyaan sehingga sesuai topik untuk Cross Validated. Ditutup 2 tahun yang lalu . Menunggu kursus selanjutnya Andrew Ng di Coursera, saya mencoba memprogram classifier Python dengan fungsi softmax pada layer terakhir untuk memiliki …
11 softmax  numerics 


3
Bagaimana cara menerapkan Softmax sebagai fungsi Aktivasi dalam multi-layer Perceptron di scikit-learn? [Tutup]
Tutup. Pertanyaan ini di luar topik . Saat ini tidak menerima jawaban. Ingin meningkatkan pertanyaan ini? Perbarui pertanyaan sehingga sesuai topik untuk Cross Validated. Ditutup 11 bulan lalu . Saya perlu menerapkan fungsi aktivasi Softmax ke Perceptron multi-layer di scikit. Dokumentasi scikit pada topik model jaringan saraf (diawasi) mengatakan "MLPClassifier …


Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.