Fungsi biaya jaringan saraf adalah , dan diklaim non-cembung . Saya tidak begitu mengerti mengapa seperti itu, karena seperti yang saya lihat itu sangat mirip dengan fungsi biaya dari regresi logistik, kan?
Jika non-cembung, maka turunan urutan kedua , kan?
MEMPERBARUI
Berkat jawaban di bawah ini dan juga komentar @ gung, saya mengerti maksud Anda, jika tidak ada lapisan tersembunyi sama sekali, itu cembung, seperti halnya regresi logistik. Tetapi jika ada lapisan tersembunyi, dengan mengubah simpul di lapisan tersembunyi serta bobot dalam koneksi berikutnya, kita bisa memiliki beberapa solusi dari bobot yang menghasilkan kerugian yang sama.
Sekarang lebih banyak pertanyaan,
1) Ada beberapa minimum lokal, dan beberapa dari mereka harus memiliki nilai yang sama, karena mereka sesuai dengan beberapa node dan bobot permutasi, kan?
2) Jika node dan bobot tidak akan di permutasi sama sekali, maka itu cembung, kan? Dan minimum akan menjadi minimum global. Jika demikian, jawaban untuk 1) adalah, semua minimum lokal tersebut akan memiliki nilai yang sama, benar?