Pertanyaan yang diberi tag «sigmoid-curve»

4
Mengapa tanh hampir selalu lebih baik daripada sigmoid sebagai fungsi aktivasi?
Dalam kursus Neural Networks dan Deep Learning Andrew Ng di Coursera ia mengatakan bahwa menggunakan tanhtanhtanh hampir selalu lebih disukai daripada menggunakan sigmoidsigmoidsigmoid . Alasan yang dia berikan adalah bahwa output menggunakan tanhtanhtanh pusat sekitar 0 daripada sigmoidsigmoidsigmoid 's 0,5, dan ini "membuat belajar untuk lapisan berikutnya sedikit lebih mudah". …

3
Relu vs Sigmoid vs Softmax sebagai neuron lapisan tersembunyi
Saya bermain dengan Neural Network sederhana dengan hanya satu lapisan tersembunyi, oleh Tensorflow, dan kemudian saya mencoba berbagai aktivasi untuk lapisan tersembunyi: Relu Sigmoid Softmax (well, biasanya softmax digunakan di lapisan terakhir ..) Relu memberikan akurasi kereta terbaik & akurasi validasi. Saya tidak yakin bagaimana menjelaskannya. Kita tahu bahwa Relu …

3
Fungsi logistik dengan kemiringan tetapi tanpa asimtot?
Fungsi logistik memiliki rentang keluaran 0 hingga 1, dan kemiringan asimtotik nol di kedua sisi. Apa alternatif untuk fungsi logistik yang tidak rata sepenuhnya pada akhirnya? Lereng asimptotik siapa yang mendekati nol tetapi tidak nol, dan kisarannya tidak terbatas?
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.