Apa saja taktik untuk mengenali media buatan buatan?


12

Dengan meningkatnya kemampuan untuk membuat foto palsu, soundbites palsu, dan video palsu dengan murah, ada masalah yang semakin besar dengan mengenali apa yang nyata dan apa yang tidak. Bahkan sekarang kita melihat sejumlah contoh aplikasi yang membuat media palsu dengan biaya rendah (lihat Deepfake , FaceApp , dll.).

Jelas, jika aplikasi ini digunakan dengan cara yang salah mereka dapat digunakan untuk menodai citra orang lain. Deepfake dapat digunakan untuk membuat seseorang terlihat tidak setia kepada pasangannya. Aplikasi lain dapat digunakan untuk membuatnya tampak seperti politisi mengatakan sesuatu yang kontroversial.

Apa saja teknik yang dapat digunakan untuk mengenali dan melindungi dari media buatan buatan?

Jawaban:


2

Bidang Digital Media Forensik (DMF) bertujuan mengembangkan teknologi untuk penilaian otomatis integritas gambar atau video, sehingga DMF adalah bidang yang Anda cari. Ada beberapa pendekatan dalam DMF: misalnya, yang didasarkan pada teknik pembelajaran mesin (ML), khususnya, jaringan saraf convolutional (CNNs).

Misalnya, dalam makalah Deteksi Video Deepfake Menggunakan Jaringan Syaraf Berulang (2018), David Güera dan Edward J. Delp mengusulkan analisis dua tahap yang terdiri dari CNN untuk mengekstraksi fitur pada tingkat bingkai diikuti oleh RNN yang sadar sementara untuk menangkap inkonsistensi temporal antara frame yang diperkenalkan oleh alat deepfake. Lebih khusus, mereka menggunakan arsitektur LSTM konvolusional (CNN dikombinasikan dengan LSTM), yang dilatih secara end-to-end, sehingga CNN mempelajari fitur-fitur dalam video, yang diteruskan ke RNN, yang berupaya untuk memprediksi kemungkinan dari fitur-fitur milik video palsu atau tidak. Bagian 3 menjelaskan pembuatan video deepfake, yang mengarah pada inkonsistensi antara frame video (yang dieksploitasi dalam metode yang diusulkan) karena penggunaan gambar dengan kondisi tampilan dan pencahayaan yang berbeda.

Karya serupa lainnya telah diusulkan. Lihat daftar kurasi ini https://github.com/aerophile/awesome-deepfakes untuk makalah terkait lainnya.


1

Saya pikir konteks penting di sini. Menggunakan taktik seperti yang digunakan oleh Scotland Yard selama lebih dari seabad mungkin adalah cara terbaik. Menetapkan alibi, garis waktu yang realistis, motif. Untuk pengaturan legal, dimungkinkan untuk membuktikan bahwa gambar ini palsu menggunakan metode seperti ini. Dari perspektif IT, dimungkinkan untuk menentukan asal untuk gambar-gambar ini. Jika ribuan gambar duplikat berasal dari satu sumber, maka gambar dari sumber ini dicurigai.

Saya pikir, secara umum, kita harus melatih diri untuk tidak mempercayai semua yang kita lihat. Ada begitu banyak metode untuk memalsukan gambar, sehingga fotografi tidak lagi dapat dianggap sebagai bukti terbaik dari suatu peristiwa yang terjadi. Kita seharusnya tidak mengabaikan semua gambar, tetapi mencari persetujuan fakta di luar sebelum langsung mengambil kesimpulan. Jika semua fakta menunjukkan suatu peristiwa terjadi, maka foto itu kemungkinan nyata.


0

Dengan asumsi artefak dan elemen tidak alami tidak ada di media yang dipertanyakan dan bahwa media tidak dapat dibedakan oleh mata manusia, satu-satunya cara untuk dapat melakukan ini adalah dengan melacak kembali ke sumber gambar.

Analogi dapat ditarik ke serangan DoS (Denial of Service), di mana sejumlah permintaan yang tidak masuk akal dikirim dari satu IP ke satu server yang menyebabkannya mogok - Solusi umum adalah honeypot, di mana sejumlah besar permintaan dari satu IP dialihkan ke server umpan di mana, bahkan jika crash, uptime tidak terganggu. Beberapa penelitian telah dilakukan pada baris-baris ini di mana makalah ini berbicara tentang memverifikasi tanda tangan digital dari suatu gambar atau yang ini di mana mereka mengusulkan deteksi gambar yang dirusak dan identifikasi sumber kamera.

Setelah ditelusuri kembali ke sumber, jika sejumlah gambar berpotensi palsu datang dari sumber tunggal, itu harus dipertanyakan.

Ketakutan umum muncul ketika kita berurusan dengan sesuatu, berdasarkan analogi, seperti serangan DDoS (Distributed Denial of Service) di mana setiap permintaan palsu berasal dari sumber terdistribusi - Network Security telah menemukan cara untuk menghadapinya, tetapi keamanan dan deteksi penipuan dalam hal AI tidak begitu diketahui.

Pada dasarnya untuk media buatan yang dipikirkan dengan baik untuk tujuan jahat tertentu, hari ini, cukup sulit untuk ditangkap - Tetapi pekerjaan sedang dilakukan saat ini pada keamanan di AI. Jika Anda berencana menggunakan media buatan untuk tujuan jahat, saya katakan sekarang adalah waktu terbaik.

Keamanan ini telah menjadi perhatian dari sedikit sekarang. Sebuah artikel yang ditulis oleh seorang kutipan ilmuwan Data

Deepfakes telah digunakan untuk mencoba melecehkan dan mempermalukan wanita melalui video porno palsu. Istilah ini sebenarnya berasal dari nama pengguna pengguna Reddit yang membuat video ini dengan membangun jaringan permusuhan generatif (GAN) menggunakan TensorFlow. Sekarang, pejabat intelijen berbicara tentang kemungkinan Vladimir Putin menggunakan video palsu untuk mempengaruhi pemilihan presiden 2020. Lebih banyak penelitian sedang dilakukan pada deepfake sebagai ancaman terhadap demokrasi dan keamanan nasional, serta bagaimana mendeteksi mereka.

Catatan - Saya tidak mengerti tentang keamanan jaringan, semua pengetahuan saya berasal dari satu percakapan dengan seorang teman, dan saya pikir ini akan menjadi analogi yang baik untuk digunakan di sini. Maafkan kesalahan apa pun dalam analogi ini dan mohon perbaiki jika mungkin!


Alangkah baiknya jika Anda bisa melakukan penelitian dan memberikan tautan ke setidaknya 1 karya penelitian / kertas yang didasarkan pada sesuatu di sepanjang garis tersebut (yaitu, yang mengeksploitasi sumber video yang berpotensi palsu).
nbro

Terlepas dari makalah yang berbicara tentang potensi bahaya , dan yang umumnya mencoba mendeteksi artefak, lebih sedikit makalah yang melakukan apa yang dinyatakan dalam jawaban seperti ini atau yang ini - Seperti yang dikatakan, penelitian yang luas belum dilakukan pada jalur ini, tetapi sedang dieksplorasi. Semoga tautan ini membantu!
ashenoy

-1

Teknik yang Anda sebutkan menggunakan GAN. Gagasan kunci GAN adalah bahwa Anda memiliki generator dan pembeda. Generator menghasilkan konten baru, diskriminator harus memberi tahu apakah konten tersebut berasal dari data nyata atau jika dihasilkan.

Diskriminator jauh lebih kuat. Seharusnya tidak terlalu sulit untuk melatih seorang diskriminator untuk mendeteksi kesalahan. Melatih model yang mampu menunjukkan manipulasi dan memahami ini adalah bukti manipulasi yang lebih sulit. Tidak mungkin mendapatkan bukti bahwa sesuatu tidak dimanipulasi.

Tentang pertanyaan bagaimana Anda menangani gambar-gambar yang dipotret: Anda melihat perbedaan tingkat kompresi pada gambar. Kata kunci yang dicari adalah forensik gambar: http://fotoforensics.com/tutorial-estq.php

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.