Apakah jaringan permusuhan generatif diperkenalkan oleh Jürgen Schmidhuber?


32

Saya membaca di https://en.wikipedia.org/wiki/Generative_adversarial_networks :

[Jaringan permusuhan generatif] diperkenalkan oleh Ian Goodfellow et al pada tahun 2014.

tetapi Jurgen Schmidhuber mengklaim telah melakukan pekerjaan serupa sebelumnya dalam arah itu (misalnya, ada beberapa perdebatan di NIPS 2016 selama tutorial jaringan permusuhan generatif: https://channel9.msdn.com/Events/Neural-Information-Processing-Systems- Conference / Neural-Information-Processing-Systems-Conference-NIPS-2016 / Generative-Adversarial-Networks lihat 1h03 mnt).

Apakah ide di balik jaringan permusuhan generatif pertama kali diperkenalkan secara publik oleh Jürgen Schmidhuber? Jika tidak, seberapa miripkah ide-ide Jürgen Schmidhuber?


5
Diskusi yang relevan tentang reddit di sini , terutama komentar ini .
Dougal

Ringkasan singkat tentang insiden NIPS dapat dibaca di sini: beamandrew.github.io/deeplearning/2016/12/12/nips-2016.html
amoeba mengatakan Reinstate Monica

1
Bagian sejarah halaman Wikipedia telah diperbarui, dan saya pikir itu berisi semua referensi yang relevan dan hubungannya satu sama lain sekarang. Saya pikir ini sebenarnya cukup adil dan lengkap sekarang.
Albert

@Albert terima kasih atas pembaruannya!
Franck Dernoncourt

Jawaban:


50

Saya menerbitkan sendiri ide dasar dari beragam deterministik dari jaringan permusuhan generatif (GAN) dalam posting blog 2010 (archive.org) . Saya telah mencari tetapi tidak dapat menemukan yang serupa di mana saja, dan tidak punya waktu untuk mencoba mengimplementasikannya. Saya bukan dan masih bukan peneliti jaringan saraf dan tidak memiliki koneksi di lapangan. Saya akan menyalin-tempel posting blog di sini:

2010-02-24

Sebuah metode untuk jaringan saraf pelatihan buatan untuk menghasilkan data yang hilang dalam konteks variabel. Karena idenya sulit dimasukkan ke dalam satu kalimat, saya akan menggunakan contoh:

Sebuah gambar mungkin memiliki piksel yang hilang (katakanlah, di bawah noda). Bagaimana cara mengembalikan piksel yang hilang, hanya mengetahui piksel di sekitarnya? Salah satu pendekatan akan menjadi "generator" jaringan saraf yang, mengingat piksel sekitarnya sebagai input, menghasilkan piksel yang hilang.

Tetapi bagaimana cara melatih jaringan seperti itu? Seseorang tidak dapat mengharapkan jaringan untuk secara tepat menghasilkan piksel yang hilang. Bayangkan, misalnya, bahwa data yang hilang adalah sepetak rumput. Orang bisa mengajar jaringan dengan banyak gambar halaman rumput, dengan bagian-bagiannya dihapus. Guru mengetahui data yang hilang, dan dapat menilai jaringan sesuai dengan root mean square difference (RMSD) antara tambalan rumput yang dihasilkan dan data asli. Masalahnya adalah jika generator menemukan gambar yang bukan bagian dari set pelatihan, tidak mungkin bagi jaringan saraf untuk meletakkan semua daun, terutama di tengah tambalan, di tempat yang tepat. Kesalahan RMSD terendah mungkin akan dicapai oleh jaringan yang mengisi area tengah tambalan dengan warna solid yang merupakan rata-rata warna piksel dalam gambar khas rumput. Jika jaringan mencoba menghasilkan rumput yang terlihat meyakinkan bagi manusia dan dengan demikian memenuhi tujuannya, akan ada penalti yang disayangkan oleh metrik RMSD.

Ide saya adalah ini (lihat gambar di bawah): Berlatih secara simultan dengan generator, sebuah jaringan pengklasifikasi yang diberikan, secara acak atau bergantian, dihasilkan dan data asli. Pengklasifikasi kemudian harus menebak, dalam konteks konteks gambar di sekitarnya, apakah input tersebut asli (1) atau dihasilkan (0). Jaringan generator secara bersamaan mencoba untuk mendapatkan skor tinggi (1) dari classifier. Hasilnya, mudah-mudahan, adalah bahwa kedua jaringan memulai dengan sangat sederhana, dan kemajuan menuju menghasilkan dan mengenali fitur yang lebih dan lebih maju, mendekati dan mungkin mengalahkan kemampuan manusia untuk membedakan antara data yang dihasilkan dan yang asli. Jika beberapa sampel pelatihan dipertimbangkan untuk setiap skor, maka RMSD adalah metrik kesalahan yang benar untuk digunakan,

masukkan deskripsi gambar di sini
Setup pelatihan jaringan saraf tiruan

Ketika saya menyebutkan RMSD pada akhirnya saya maksud metrik kesalahan untuk "estimasi probabilitas", bukan nilai piksel.

Saya awalnya mulai mempertimbangkan penggunaan jaringan saraf pada tahun 2000 (comp.dsp post) untuk menghasilkan frekuensi tinggi yang hilang untuk audio digital up-sampled (disesuaikan dengan frekuensi sampling yang lebih tinggi), dengan cara yang lebih meyakinkan daripada akurat. Pada tahun 2001 saya mengumpulkan perpustakaan audio untuk pelatihan. Berikut adalah bagian dari log Internet Relay Chat (IRC) EFNet #musicdsp mulai 20 Januari 2006 di mana saya (yehar) berbicara tentang ide tersebut dengan pengguna lain (_Beta):

[22:18] <yehar> masalah dengan sampel adalah bahwa jika Anda tidak memiliki sesuatu "di sana" sudah maka apa yang dapat Anda lakukan jika Anda upample ...
[22:22] <yehar> saya pernah mengumpulkan besar pustaka suara sehingga saya dapat mengembangkan algo "pintar" untuk menyelesaikan masalah yang tepat ini
[22:22] <yahar> saya akan menggunakan jaringan saraf
[22:22] <yahar> tetapi saya tidak menyelesaikan pekerjaan: - D
[22:23] <_Beta> masalah dengan jaringan saraf adalah Anda harus memiliki beberapa cara untuk mengukur kebaikan hasil
[22:24] beta: saya punya ide bahwa Anda dapat mengembangkan "pendengar" di saat yang sama ketika Anda mengembangkan "pencipta suara cerdas di sana"
[22:26] <yehar> beta: dan pendengar ini akan belajar mendeteksi ketika mendengarkan spektrum yang dibuat di atas sana. dan pencipta berkembang pada saat yang sama untuk mencoba menghindari deteksi ini

Suatu waktu antara 2006 dan 2010, seorang teman mengundang seorang ahli untuk melihat ide saya dan mendiskusikannya dengan saya. Mereka berpikir itu menarik, tetapi mengatakan bahwa itu tidak efektif untuk melatih dua jaringan ketika satu jaringan dapat melakukan pekerjaan itu. Saya tidak pernah yakin apakah mereka tidak mendapatkan ide inti atau jika mereka segera melihat cara untuk merumuskannya sebagai jaringan tunggal, mungkin dengan bottleneck di suatu tempat dalam topologi untuk memisahkannya menjadi dua bagian. Ini adalah saat ketika saya bahkan tidak tahu bahwa backpropagation masih merupakan metode pelatihan de-facto (mengetahui bahwa membuat video dalam kegilaan Mendalam tahun 2015). Selama bertahun-tahun saya telah berbicara tentang ide saya dengan beberapa ilmuwan data dan orang lain yang saya pikir mungkin tertarik, tetapi tanggapannya ringan.

Pada Mei 2017 saya melihat presentasi tutorial Ian Goodfellow di YouTube [Mirror] , yang benar-benar membuat saya senang. Bagi saya hal itu tampak sebagai ide dasar yang sama, dengan perbedaan seperti yang saya pahami diuraikan di bawah ini, dan kerja keras telah dilakukan untuk membuatnya memberikan hasil yang baik. Dia juga memberikan teori, atau mendasarkan segala sesuatu pada sebuah teori, mengapa itu harus berhasil, sementara saya tidak pernah melakukan analisis formal terhadap ide saya. Presentasi Goodfellow menjawab pertanyaan yang saya miliki dan banyak lagi.

Goodfellow's GAN dan ekstensi yang disarankannya termasuk sumber kebisingan di generator. Saya tidak pernah berpikir untuk memasukkan sumber kebisingan tetapi sebagai gantinya memiliki konteks data pelatihan, lebih baik mencocokkan ide dengan GAN bersyarat (cGAN) tanpa input vektor kebisingan dan dengan model yang dikondisikan pada bagian data. Pemahaman saya saat ini berdasarkan Mathieu et al. 2016 adalah sumber kebisingan tidak diperlukan untuk hasil yang bermanfaat jika ada variabilitas input yang cukup. Perbedaan lainnya adalah bahwa GAN Goodfellow meminimalkan kemungkinan log. Kemudian, kuadrat terkecil GAN ​​(LSGAN) telah diperkenalkan ( Mao et al. 2017) yang cocok dengan saran RMSD saya. Jadi, ide saya akan cocok dengan jaringan permusuhan generatif kuadrat terkecil bersyarat (cLSGAN) tanpa input vektor derau ke generator dan dengan bagian data sebagai input pengkondisian. Sebuah generatif sampel generator dari perkiraan distribusi data. Saya sekarang tahu jika dan meragukan bahwa input berisik di dunia nyata akan memungkinkan hal itu dengan ide saya, tetapi itu tidak berarti bahwa hasilnya tidak akan berguna jika tidak.

Perbedaan yang disebutkan di atas adalah alasan utama mengapa saya percaya Goodfellow tidak tahu atau mendengar tentang ide saya. Lain adalah bahwa blog saya tidak memiliki konten pembelajaran mesin lainnya, sehingga akan menikmati paparan yang sangat terbatas di kalangan pembelajaran mesin.

Ini adalah konflik kepentingan ketika pengulas memberi tekanan pada penulis untuk mengutip karya pengulas sendiri.


8
Saya harus mengatakan, saya sangat terkesan. Tampaknya posting blog Anda layak mendapatkan pujian untuk ide itu juga, meskipun Ian dan tim mungkin menemukannya secara mandiri.
user2808118

2
Seandainya Anda menerbitkan karya Anda, Anda mungkin telah menjadi orang yang mengilhami revolusi permusuhan. GASP !!
user2808118

5
@ user2808118 Itu akan diperlukan untuk mengerjakannya, untuk menghasilkan beberapa hasil untuk dipublikasikan, tidak hanya memikirkannya.
Olli Niemitalo

4
Saya salut kepada Anda dua kali: pertama karena menemukannya setidaknya 3 tahun sebelum Goodfellow dan kedua karena memiliki hati yang besar untuk menerimanya dengan cara yang sangat positif.
Ilmuwan Gagal

19

Jawaban dari Ian Goodfellow pada Apakah Jürgen Schmidhuber benar ketika ia mengklaim kredit untuk GAN di NIPS 2016? diposting pada 2017-03-21:

Dia tidak mengklaim kredit untuk GAN, tepatnya. Ini lebih rumit.

Anda dapat melihat apa yang dia tulis dengan kata-katanya sendiri ketika dia adalah peninjau pengajuan NIPS 2014 tentang GAN: Ulasan Ekspor, Diskusi, Umpan Balik Penulis, dan Tinjauan Meta ( mirror )

Dia adalah reviewer yang meminta kami untuk mengubah nama GAN menjadi "inverse PM."

Inilah makalah yang dia yakini tidak cukup diakui: http: // ftp: //ftp.idsia.ch/pub/juergen/factorial.pdf ( mirror )

Saya tidak suka bahwa tidak ada cara yang baik untuk memiliki masalah seperti ini diputuskan. Saya menghubungi penyelenggara NIPS dan bertanya apakah ada cara bagi Jürgen untuk mengajukan keluhan tentang saya dan meminta komite perwakilan NIPS untuk menilai apakah publikasi saya memperlakukannya dengan tidak adil. Mereka mengatakan tidak ada proses seperti itu tersedia.

Saya pribadi tidak berpikir bahwa ada hubungan yang signifikan antara minimalisasi prediktabilitas dan GAN. Saya tidak pernah memiliki masalah mengakui koneksi antara GAN dan algoritma lain yang sebenarnya terkait, seperti estimasi noise-contrastive dan peningkatan yang diawasi sendiri.

Jürgen dan saya berniat untuk menulis makalah bersama segera menggambarkan persamaan dan perbedaan antara PM dan GAN, dengan asumsi kami dapat menyetujui apa itu.


2
Sayangnya sepertinya tidak ada makalah di antara keduanya yang akan datang. :-(
ComputerScientist

@ComputerScientist ya masih menunggu, orang lain bisa mengurusnya jika tidak :-)
Franck Dernoncourt
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.