Pertanyaan yang diberi tag «activation-function»


2
Apa itu aktivasi GELU?
Saya menggunakan kertas BERT yang menggunakan GELU (Gaussian Error Linear Unit) yang menyatakan persamaan sebagai yangGELU(x)=xP(X≤x)=xΦ(x).GELU(x)=xP(X≤x)=xΦ(x). GELU(x) = xP(X ≤ x) = xΦ(x).0.5x(1+tanh[2/π−−−√(x+0.044715x3)])0.5x(1+tanh[2/π(x+0.044715x3)])0.5x(1 + tanh[\sqrt{ 2/π}(x + 0.044715x^3)]) Bisakah Anda menyederhanakan persamaan dan menjelaskan bagaimana persamaannya telah diperkirakan.

1
Mengapa ReLU lebih baik daripada fungsi aktivasi lainnya
Di sini jawabannya mengacu pada gradien menghilang dan meledak yang telah di- sigmoidfungsi aktivasi tetapi, saya kira, Relumemiliki kelemahan dan itu adalah nilai yang diharapkan. tidak ada batasan untuk output Reludan nilai yang diharapkan tidak nol. Saya ingat waktu sebelum popularitas Reluyang tanhadalah yang paling populer di antara mesin ahli …

1
Perbedaan Fungsi Aktivasi di Jaringan Saraf Tiruan pada umumnya
Saya telah mempelajari jenis fungsi aktivasi untuk jaringan saraf. Fungsinya sendiri cukup mudah, tetapi perbedaan aplikasi tidak sepenuhnya jelas. Masuk akal bahwa seseorang membedakan antara fungsi tipe logis dan linier, tergantung pada biner / output kontinu yang diinginkan tetapi apa keuntungan dari fungsi sigmoid dibandingkan fungsi linier sederhana? ReLU sangat …

3
Bagaimana cara menggunakan LeakyRelu sebagai fungsi aktivasi dalam urutan DNN dalam keras? Kapan kinerja lebih baik daripada Relu?
Bagaimana Anda menggunakan LeakyRelu sebagai fungsi aktivasi dalam urutan DNN di keras? Jika saya ingin menulis sesuatu yang mirip dengan: model = Sequential() model.add(Dense(90, activation='LeakyRelu')) Apa solusinya? Masukkan LeakyRelu mirip dengan Relu? Pertanyaan kedua adalah: apa pengaturan umum terbaik untuk menyetel parameter LeakyRelu? Kapan kinerjanya secara signifikan lebih baik daripada …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.