Pertanyaan yang diberi tag «gradient-descent»

4
Pytorch, apa saja argumen gradien
Saya membaca dokumentasi PyTorch dan menemukan contoh di mana mereka menulis gradients = torch.FloatTensor([0.1, 1.0, 0.0001]) y.backward(gradients) print(x.grad) di mana x adalah variabel awal, dari mana y dibangun (vektor 3). Pertanyaannya adalah, apa argumen 0.1, 1.0 dan 0.0001 dari tensor gradien? Dokumentasinya tidak terlalu jelas tentang itu.

9
Mengapa bobot Jaringan Neural harus diinisialisasi ke nomor acak? [Tutup]
Tutup. Pertanyaan ini tidak memenuhi pedoman Stack Overflow . Saat ini tidak menerima jawaban. Ingin memperbaiki pertanyaan ini? Perbarui pertanyaan agar sesuai dengan topik untuk Stack Overflow. Tutup 3 hari yang lalu . Perbaiki pertanyaan ini Saya mencoba membangun jaringan saraf dari awal. Di semua literatur AI ada konsensus bahwa …

1
R: menerapkan algoritma peningkatan gradien saya sendiri
Saya mencoba untuk menulis algoritma meningkatkan gradien saya sendiri. Saya mengerti ada paket-paket yang ada seperti gbmdan xgboost,tetapi saya ingin mengerti bagaimana algoritma bekerja dengan menulis sendiri. Saya menggunakan iriskumpulan data, dan hasil saya Sepal.Length(berkelanjutan). Fungsi kerugian saya adalah mean(1/2*(y-yhat)^2)(pada dasarnya kesalahan kuadrat rata-rata dengan 1/2 di depan), jadi gradien …
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.