Bagaimana mobil self-driving dapat membuat keputusan etis tentang siapa yang harus dibunuh?
Seharusnya tidak. Mobil self-driving bukanlah agen moral. Mobil gagal dengan cara yang dapat diprediksi. Kuda gagal dengan cara yang dapat diprediksi.
mobil menuju ke arah kerumunan 10 orang menyeberang jalan, sehingga tidak bisa berhenti tepat waktu, tetapi dapat menghindari membunuh 10 orang dengan menabrak dinding (membunuh penumpang),
Dalam hal ini, mobil harus menginjak rem. Jika 10 orang mati, itu hanya disayangkan. Kami tidak bisa mempercayai semua keyakinan kami tentang apa yang terjadi di luar mobil. Bagaimana jika 10 orang itu benar-benar robot yang dibuat agar terlihat seperti orang? Bagaimana jika mereka mencoba membunuhmu?
menghindari membunuh pengendara sepeda motor mengingat bahwa kemungkinan bertahan hidup lebih besar bagi penumpang mobil,
Sekali lagi, mengkodekan jenis-jenis sentimen ini ke dalam kendaraan akan membuka pengendara kendaraan hingga semua jenis serangan, termasuk pengendara sepeda motor "palsu" . Manusia nyaris tidak diperlengkapi untuk membuat keputusan ini sendiri, jika sama sekali. Ketika ragu, cukup banting rem.
membunuh binatang di jalan demi manusia,
Sekali lagi, cukup tekan rem. Bagaimana jika itu bayi? Bagaimana jika itu bom?
mengubah jalur untuk menabrak mobil lain untuk menghindari membunuh seekor anjing,
Nggak. Anjing itu berada di tempat yang salah pada waktu yang salah. Mobil lain tidak. Cukup banting rem, seaman mungkin.
Apakah algoritme mengenali perbedaan antara manusia dan hewan?
Apakah manusia? Tidak selalu. Bagaimana jika manusia memiliki senjata? Bagaimana jika hewan itu memiliki gigi besar? Apakah tidak ada konteks?
- Apakah ukuran manusia atau hewan itu penting?
- Apakah itu menghitung berapa banyak penumpang yang dimiliki vs orang di depan?
- Apakah itu "tahu" ketika bayi / anak-anak di kapal?
- Apakah itu memperhitungkan usia (mis. Membunuh yang lebih tua dulu)?
Manusia tidak bisa menyetujui hal-hal ini. Jika Anda bertanya kepada polisi apa yang harus dilakukan dalam situasi ini, jawabannya tidak akan, "Anda harus berbelok ke kiri, menimbang semua pihak yang relevan di kepala Anda, menilai usia yang relevan di antara semua pihak, lalu berbelok sedikit ke kanan, dan Anda akan menyelamatkan 8% lebih banyak nyawa. " Tidak, polisi hanya akan berkata, "Anda seharusnya menghentikan kendaraan, secepat dan seaman mungkin." Mengapa? Karena polisi tahu orang-orang biasanya tidak diperlengkapi untuk menghadapi skenario kecelakaan berkecepatan tinggi.
Target kita untuk "mobil yang bisa menyetir sendiri" seharusnya tidak menjadi 'agen moral yang setara dengan manusia.' Seharusnya agen dengan kompleksitas kecoa reaktif, yang gagal diprediksi.