Apakah Kecerdasan Buatan Rentan terhadap Peretasan?
Balikkan pertanyaan Anda sejenak dan pikirkan:
Apa yang membuat AI lebih kecil risiko peretasan dibandingkan dengan perangkat lunak jenis apa pun?
Pada akhirnya, perangkat lunak adalah perangkat lunak dan akan selalu ada masalah bug dan keamanan. AI berisiko terhadap semua masalah yang tidak berisiko pada perangkat lunak AI, karena AI tidak memberinya semacam kekebalan.
Adapun gangguan khusus AI, AI berisiko diberi informasi palsu. Tidak seperti kebanyakan program, fungsi AI ditentukan oleh data yang dikonsumsi.
Sebagai contoh dunia nyata, beberapa tahun yang lalu Microsoft membuat chatbot AI bernama Tay. Orang-orang di Twitter butuh waktu kurang dari 24 jam untuk mengajarkannya untuk mengatakan "Kami akan membangun tembok, dan meksiko akan membayar untuk itu":
(Gambar diambil dari artikel Verge yang ditautkan di bawah, saya tidak mengklaim kredit untuk itu.)
Dan itu hanya puncak gunung es.
Beberapa artikel tentang Tay:
Sekarang bayangkan itu bukan bot obrolan, bayangkan itu adalah bagian penting dari AI dari masa depan di mana AI bertanggung jawab atas hal-hal seperti tidak membunuh penghuni mobil (yaitu mobil yang bisa menyetir sendiri) atau tidak membunuh seorang pasien di meja operasi (yaitu beberapa jenis peralatan bantuan medis).
Memang, orang akan berharap AI seperti itu akan lebih aman dari ancaman seperti itu, tetapi seandainya seseorang memang menemukan cara untuk memberi makan massa AI seperti informasi palsu tanpa diketahui (setelah semua, peretas terbaik tidak meninggalkan jejak), itu benar-benar bisa berarti perbedaan antara hidup dan mati.
Dengan menggunakan contoh mobil yang bisa menyetir sendiri, bayangkan jika data palsu bisa membuat mobil itu berpikir perlu melakukan pemberhentian darurat saat berada di jalan tol. Salah satu aplikasi untuk AI medis adalah keputusan seumur hidup atau mati di UGD, bayangkan jika seorang hacker dapat memberi timbangan yang mendukung keputusan yang salah.
Bagaimana kita bisa mencegahnya?
Pada akhirnya skala risiko tergantung pada seberapa tergantung manusia pada AI. Sebagai contoh, jika manusia mengambil keputusan tentang AI dan tidak pernah mempertanyakannya, mereka akan membuka diri terhadap segala macam manipulasi. Namun, jika mereka menggunakan analisis AI hanya sebagai satu bagian dari teka-teki, akan menjadi lebih mudah dikenali ketika AI salah, baik itu melalui cara yang tidak disengaja atau jahat.
Dalam kasus pembuat keputusan medis, jangan hanya percaya AI, lakukan tes fisik dan dapatkan pendapat manusia juga. Jika dua dokter tidak setuju dengan AI, buang diagnosis AI.
Dalam hal mobil, satu kemungkinan adalah memiliki beberapa sistem berlebihan yang pada dasarnya harus 'memberikan suara' tentang apa yang harus dilakukan. Jika sebuah mobil memiliki beberapa AI pada sistem terpisah yang harus memilih tindakan yang harus diambil, seorang peretas harus mengambil lebih dari satu AI untuk mendapatkan kendali atau menyebabkan jalan buntu. Yang penting, jika AI berjalan pada sistem yang berbeda, eksploitasi yang sama yang digunakan pada satu tidak dapat dilakukan pada yang lain, semakin menambah beban kerja peretas.