Pertanyaan yang diberi tag «softmax»

Normalisasi fungsi eksponensial yang mengubah vektor numerik sehingga semua entri menjadi antara 0 dan 1 dan bersama-sama berjumlah 1. Fungsi ini sering digunakan sebagai lapisan akhir jaringan saraf yang melakukan tugas klasifikasi.


1
Apa yang dimaksud dengan gradient-log-normalizer?
Di wiki, fungsi softmax didefinisikan sebagai gradient-log-normalizer dari distribusi probabilitas kategorikal . Penjelasan parsial untuk log-normalizer ditemukan di sini , tetapi apa yang dimaksud dengan gradient-log-normalizer ?
9 softmax 

1
Definisi fungsi softmax
Pertanyaan ini menindaklanjuti stats.stackexchange.com/q/233658 Model regresi logistik untuk kelas {0, 1} adalah P(y=1|x)=exp(wTx)1+exp(wTx)P(y=0|x)=11+exp(wTx)P(y=1|x)=exp⁡(wTx)1+exp⁡(wTx)P(y=0|x)=11+exp⁡(wTx) \mathbb{P} (y = 1 \;|\; x) = \frac{\exp(w^T x)}{1 + \exp(w^T x)} \\ \mathbb{P} (y = 0 \;|\; x) = \frac{1}{1 + \exp(w^T x)} Jelas probabilitas tersebut berjumlah 1. Dengan mengatur kita juga bisa mendefinisikan regresi logistik …

2
Bagaimana unit softmax diturunkan dan apa implikasinya?
Saya mencoba memahami mengapa fungsi softmax didefinisikan seperti itu: ezjΣKk=1ezk=σ(z)ezjΣk=1Kezk=σ(z)\frac{e^{z_{j}}} {\Sigma^{K}_{k=1}{e^{z_{k}}}} = \sigma(z) Saya mengerti bagaimana ini menormalkan data dan memetakan dengan benar untuk beberapa rentang (0, 1) tetapi perbedaan antara probabilitas berat bervariasi secara eksponensial daripada linear. Apakah ada alasan mengapa kita menginginkan perilaku ini? Juga persamaan ini tampaknya …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.