Saya telah membaca beberapa makalah tentang membuat gambar secara manual untuk "mengelabui" jaringan saraf (lihat di bawah).
Apakah ini karena jaringan hanya memodelkan probabilitas bersyarat ?
Jika jaringan dapat memodelkan probabilitas gabungan , akankah kasus seperti itu masih terjadi?
Dugaan saya adalah gambar yang dibuat secara artifisial berbeda dari data pelatihan, sehingga probabilitasnya rendah . Karenanya harus rendah bahkan jika bisa tinggi untuk gambar tersebut.
Memperbarui
Saya sudah mencoba beberapa model generatif, ternyata tidak membantu, jadi saya kira ini konsekuensi dari MLE?
Maksud saya dalam kasus divergensi KL digunakan sebagai fungsi kerugian, nilai mana kecil tidak mempengaruhi kerugian. Jadi untuk gambar yang dibuat yang tidak cocok dengan , nilai dapat berubah-ubah.
Memperbarui
Saya menemukan sebuah blog oleh Andrej Karpathy yang menunjukkan
Hasil ini tidak khusus untuk gambar, ConvNets, dan mereka juga bukan "cacat" dalam Pembelajaran Jauh.
MENJELAJAHI DAN Memanfaatkan CONTOH ADVERSARIAL Deep Neural Networks Mudah Dibodohi: Prediksi Keyakinan Tinggi untuk Gambar yang Tidak Dikenali