Di sisi pembelajaran mesin: Dalam pembelajaran mesin, Anda biasanya mencoba memaksimalkan , di mana adalah target, dan adalah input (misalnya, x bisa berupa noise acak, dan y akan menjadi gambar ). Sekarang, bagaimana kita mengoptimalkan ini? Cara yang umum untuk melakukannya adalah dengan mengasumsikan bahwa . Jika kita menganggap ini, itu mengarah ke kesalahan kuadrat rata-rata. Catatan, kami anggap sebagai formulir untuk . Namun, jika kita tidak mengasumsikan distribusi tertentu, itu disebut pembelajaran bebas kemungkinan.p(y|x)xyp(y|x)=N(y|μ(x),σ)p ( y | x )p(y|x)
Mengapa GAN berada di bawah ini? Nah, fungsi Kehilangan adalah jaringan saraf, dan jaringan saraf ini tidak diperbaiki, tetapi dipelajari bersama. Oleh karena itu, kami tidak mengambil bentuk apa pun lagi (kecuali, bahwa termasuk dalam keluarga distribusi, yang dapat diwakili oleh diskriminator, tetapi demi teori kami katakan itu adalah aproksimasi fungsi universal pula.p(y|x)