Artikel Children Beating Up Robot Menginspirasi Sistem Escape Manuver Baru didasarkan pada dua makalah penelitian tentang percobaan di mal Jepang yang menyebabkan anak-anak tanpa pengawasan menyerang robot. Makalah penelitian yang Anda minati adalah Lolos dari Pelecehan Anak terhadap Robot Sosial .
Dalam makalah penelitian itu, para peneliti dapat memprogram robot untuk mengikuti simulasi perencanaan untuk mengurangi kemungkinan pelecehan oleh anak-anak. Jika mendeteksi anak-anak, robot diprogram untuk mundur ke kerumunan orang dewasa (yang kemudian dapat mendisiplinkan anak-anak jika diperlukan). Ini terjadi karena para peneliti melihat bahwa hanya anak-anak yang memukuli robot di mal tersebut.
Mereka membahas mencoba opsi lain:
Dalam karya ini, strategi robot untuk mencegah pelecehan adalah "melarikan diri", yaitu pindah ke lokasi yang kemungkinan besar akan terjadi pelecehan. Orang bisa bertanya mengapa robot tidak bisa mengatasi penyalahgunaan. Dalam uji coba pendahuluan kami, kami telah mencoba beberapa pendekatan, tetapi kami menemukan bahwa sangat sulit bagi robot untuk membujuk anak-anak agar tidak menyalahgunakannya. Sebagai contoh, kami mengubah kata-kata robot dalam banyak hal, menggunakan kata-kata yang kuat, ekspresi emosional atau sopan, tetapi tidak ada yang berhasil. Salah satu strategi yang berhasil sebagian adalah robot 'mendorong secara fisik' anak-anak. Ketika jalannya diblokir, itu hanya akan mencoba untuk terus berjalan dan berperilaku seolah-olah itu akan bertabrakan dengan anak-anak dan memaksa jalan melalui (di bawah pengawasan cermat dari operator manusia). Kami mengamati bahwa anak-anak pada awalnya menerima permintaan robot dan menaatinya; tapi, segera mereka mengetahui bahwa mereka lebih kuat dari robot sehingga mereka dapat menang jika mereka mendorong, dan juga bahwa mereka dapat menghentikannya dengan menekan sakelar bemper (terpasang pada robot untuk keselamatan). Setelah menyadari itu, mereka hanya melanjutkan dengan perilaku kasar. Tentunya memiliki robot yang lebih kuat akan menghadirkan masalah bagi keselamatan dan penerimaan sosial sehingga menghadapi situasi pelecehan seperti itu tetap sulit.
Tetapi mari kita selidiki lebih lanjut pertanyaan Anda:
Jika AI sadar mungkin dan tersebar luas, bukankah mudah bagi seseorang yang tahu apa yang mereka lakukan untuk menyiksa AI?
Mengapa Anda menganggap penyiksaan seperti itu salah ? Lagi pula, orang bisa berargumen bahwa mesin itu tidak akan benar-benar 'mengalami' rasa sakit jika Anda menyiksanya ... jadi secara moral boleh saja untuk menyiksa mesin itu. Ini mungkin merespons seolah- olah dalam kesakitan, tetapi meragukan apakah kemampuan untuk mensimulasikan keadaan emosional seperti "sedang kesakitan" sama dengan benar - benar berada dalam keadaan emosional itu. Lihat pertanyaan Apakah simulasi keadaan emosi setara dengan benar-benar mengalami emosi? untuk diskusi lebih lanjut tentang topik ini.
Anda dapat membuat argumen seperti itu, tetapi itu tidak akan benar-benar berfungsi pada tingkat emosional karena kebanyakan manusia akan merasakan empati terhadap mesin. Mungkin sulit untuk membenarkan secara logis (dan mungkin didasarkan pada kecenderungan manusia untuk terlibat dalam antropomorfisme ), tetapi kami merasakan empati ini. Ini adalah empati yang membuat Anda mengajukan pertanyaan ini di tempat pertama, membuat para peneliti mencari cara untuk melindungi robot dari pemukulan, memungkinkan petugas polisi menangkap seorang pria Jepang yang mabuk karena memukuli robot SoftBank , dan membuat banyak manusia kecewa atas penghancuran hitchBOT . Dan itubagaimana penyalahgunaan AI akan dihindari - empati manusia. Jika kebanyakan manusia peduli dengan kesejahteraan mesin, mereka akan memprioritaskan untuk menghentikan beberapa manusia yang mampu dan mau menyalahgunakan mesin.
EDIT: OP telah mengedit pertanyaannya untuk mengklarifikasi bahwa dia berbicara tentang perangkat lunak , dan bukan tentang robot. Untuk robot, Anda dapat mengandalkan antropomorfisme untuk menghasilkan beberapa tingkat simpati, tetapi sulit untuk bersimpati dengan garis kode mentah.
Anda tidak akan menghentikan penyalahgunaan algoritma. Terus terang, karena algoritme tidak seperti kita, kita tidak akan memperluas jenis empati yang sama seperti yang kita lakukan pada robot. Bahkan chatbots agak rapuh. Jika Anda bisa membuat orang bersimpati dengan garis kode (mungkin dengan membuat simulasi yang meyakinkan antara emosi dan tenaga), maka jawaban di atas berlaku - manusia antropomorfisasi mesin dan akan muncul dengan tindakan balasan. Kami belum setingkat itu, jadi "menghentikan penyalahgunaan AI" akan menjadi prioritas rendah.
Namun, beberapa kegagalan dapat diprogram untuk membatasi kerusakan penyalahgunaan, sebagaimana dirinci dalam utas ini tentang penyalahgunaan chatbot - membuat bot merespons dengan cara yang membosankan untuk membuat pelaku merasa bosan dan pindah ke target berikutnya, merespons kembali ke pelaku. dalam "pertempuran akal", atau bahkan hanya menghalangi para pelaku menggunakan layanan.
Failafes ini adalah kenyamanan dingin bagi mereka yang ingin mencegah pelecehan, bukan menanggapinya.
Juga ... seorang pelaku dapat dengan senang hati mempelajari cara memprogram AI untuk kemudian menyalahgunakan isi hatinya. Tidak ada yang bisa dilakukan untuk menghentikan itu, dan tindakan apa pun yang mungkin untuk menghentikan penyalahgunaan tersebut (seperti memantau setiap manusia untuk memastikan mereka tidak memprogram AI untuk penyalahgunaan) mungkin akan menyebabkan lebih banyak kerusakan daripada yang dipecahkannya.