Baru-baru ini ada minat dalam e X plainable A rtificial I ntelligence (XAI). Ini adalah misi XAI sebagaimana dinyatakan pada halaman DARPA -nya :
Program Explainable AI (XAI) bertujuan untuk menciptakan serangkaian teknik pembelajaran mesin yang:
- Menghasilkan model yang lebih dapat dijelaskan, sambil mempertahankan tingkat kinerja pembelajaran yang tinggi (akurasi prediksi); dan
- Memungkinkan pengguna manusia untuk memahami, memercayai secara tepat, dan secara efektif mengelola generasi yang muncul dari mitra yang secara artifisial cerdas.
Artikel New York Times Bisakah AI Diajarkan untuk Menjelaskannya Sendiri? melakukan pekerjaan yang baik dalam menjelaskan kebutuhan XAI dari sudut pandang minat manusia serta memberikan pandangan sekilas tentang teknik yang dikembangkan untuk hal yang sama. Kekuatan di balik gerakan XAI tampaknya pusat sekitar (dan datang?) Konsep hak untuk penjelasan , yaitu, persyaratan bahwa aplikasi AI yang secara signifikan mempengaruhi kehidupan manusia melalui keputusan mereka dapat menjelaskan kepada stakeholders faktor / alasan mengarah untuk keputusan tersebut.
Bagaimana hak atas penjelasan masuk akal, mengingat standar saat ini di mana kita saling bertanggung jawab?