Pertanyaan yang diberi tag «cost-maximization»

2
fungsi aktivasi tanh vs fungsi aktivasi sigmoid
Fungsi aktivasi tanh adalah: tanh(x)=2⋅σ(2x)−1tanh(x)=2⋅σ(2x)−1tanh \left( x \right) = 2 \cdot \sigma \left( 2 x \right) - 1 Di mana , fungsi sigmoid, didefinisikan sebagai: .σ(x)σ(x)\sigma(x) σ(x)=ex1+exσ(x)=ex1+ex\sigma(x) = \frac{e^x}{1 + e^x} Pertanyaan: Apakah benar-benar penting antara menggunakan kedua fungsi aktivasi (tanh vs sigma)? Fungsi mana yang lebih baik dalam hal …

5
Mengapa regresi linier menggunakan fungsi biaya berdasarkan jarak vertikal antara hipotesis dan titik input data?
Katakanlah kita memiliki input (prediktor) dan output (respons) titik data A, B, C, D, E dan kami ingin menyesuaikan garis melalui titik-titik tersebut. Ini adalah masalah sederhana untuk menggambarkan pertanyaan, tetapi dapat diperluas ke dimensi yang lebih tinggi juga. Pernyataan masalah Paling cocok saat ini atau hipotesis diwakili oleh garis …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.