Bagaimana “hak atas penjelasan” masuk akal?


8

Baru-baru ini ada minat dalam e X plainable A rtificial I ntelligence (XAI). Ini adalah misi XAI sebagaimana dinyatakan pada halaman DARPA -nya :

Program Explainable AI (XAI) bertujuan untuk menciptakan serangkaian teknik pembelajaran mesin yang:

  • Menghasilkan model yang lebih dapat dijelaskan, sambil mempertahankan tingkat kinerja pembelajaran yang tinggi (akurasi prediksi); dan
  • Memungkinkan pengguna manusia untuk memahami, memercayai secara tepat, dan secara efektif mengelola generasi yang muncul dari mitra yang secara artifisial cerdas.

Artikel New York Times Bisakah AI Diajarkan untuk Menjelaskannya Sendiri? melakukan pekerjaan yang baik dalam menjelaskan kebutuhan XAI dari sudut pandang minat manusia serta memberikan pandangan sekilas tentang teknik yang dikembangkan untuk hal yang sama. Kekuatan di balik gerakan XAI tampaknya pusat sekitar (dan datang?) Konsep hak untuk penjelasan , yaitu, persyaratan bahwa aplikasi AI yang secara signifikan mempengaruhi kehidupan manusia melalui keputusan mereka dapat menjelaskan kepada stakeholders faktor / alasan mengarah untuk keputusan tersebut.

Bagaimana hak atas penjelasan masuk akal, mengingat standar saat ini di mana kita saling bertanggung jawab?


Artikel Inteligensi Buatan (AI) Computer mengatakan tidak: mengapa membuat AI adil, akuntabel, dan transparan adalah negara-negara penting bahwa Eropa berada di depan negara-negara lain di dunia dalam menyusun peraturan untuk melindungi orang dari AI yang dibuat atau digunakan dengan buruk . Namun, peraturan ini sedikit lemah: misalnya, mereka tidak berlaku untuk kasus-kasus di mana ada keterlibatan manusia atau keputusan mereka (terlepas dari yang AI).
nbro

Jawaban:


3

Bagaimana hak atas penjelasan masuk akal, mengingat standar saat ini di mana kita saling bertanggung jawab?

Singkatnya, ini cukup masuk akal.

Lebih khusus lagi, membuat AI bertanggung jawab dan bertanggung jawab untuk menjelaskan keputusan tampaknya masuk akal karena

  • Manusia (DARPA dalam kasus ini) telah memilih untuk membuat, meningkatkan, dan mengembangkan AI dengan uang pembayar pajak. Dalam masyarakat kita juga, kapan pun manusia berkumpul untuk suatu tujuan (pengaturan formal seperti pemerintah atau lainnya), akuntabilitas dan tanggung jawab dipikul dan ditugaskan. Dengan demikian, mengharapkan AI (yang akan mengambil keputusan atas nama kami) untuk menjelaskan keputusan mereka tampaknya hanya perpanjangan alami tentang bagaimana manusia saat ini beroperasi .

  • Manusia ( umumnya paling tidak) tidak memiliki kekuatan super atau sumber daya untuk mengendalikan dan memanipulasi sisa populasi. Tetapi ketika mereka melakukannya (seperti para pemimpin politik kita ), kita ingin mereka bertanggung jawab.

  • Dalam kasus yang jarang terjadi, manusia yang kuat menjadi kuat karena hal-hal yang dapat diakses oleh semua orang , sedangkan kekuatan super AI tidak akan begitu. Jadi, peradaban kita akan merasa lebih aman dan dengan demikian kurang aman dengan AI yang tidak menutup pintu saat pertanyaan diajukan.

Manfaat lain AI yang menawarkan penjelasan tentang bagaimana suatu keputusan dicapai

  • Jauh lebih mudah untuk di-debug dan ditingkatkan pada tahap awal.

  • Dapat disesuaikan lebih lanjut (dan di sepanjang jalan) untuk memperkuat aspek-aspek tertentu seperti kesejahteraan sosial di atas profitabilitas, dll.


0

Di koran, Budak ke Algoritma? Mengapa 'Hak atas Penjelasan' Mungkin Bukan Obat yang Anda Cari , para penulis mengklaim bahwa "hak atas penjelasan" tidak mungkin memberikan obat lengkap untuk kerugian algoritmik karena setidaknya dua alasan

  1. Tidak jelas kapan hak terkait penjelasan dapat dipicu

  2. Penjelasan yang disyaratkan oleh hukum, "informasi yang bermakna tentang logika pemrosesan", mungkin tidak disediakan oleh metode AI saat ini (dapat dijelaskan)

Para penulis kemudian menyimpulkan bahwa "hak atas penjelasan" mengganggu , tetapi bahwa undang-undang lain dari Peraturan Perlindungan Data Umum Uni Eropa, seperti

  1. hak untuk dilupakan
  2. hak portabilitas data
  3. privasi dengan desain

mungkin mengganti kekurangan dari "hak atas penjelasan".

Untuk menyimpulkan, "hak untuk penjelasan" adalah upaya untuk melindungi warga negara terhadap konsekuensi yang mungkin tidak diinginkan dari penggunaan metode AI. Namun, ini bukan tanpa cacat dan hak yang lebih jelas mungkin perlu diundangkan.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.