Bisakah manusia melukai AI yang sadar atau hidup?


9

Jika AI sadar mungkin, apakah mungkin juga bagi seseorang yang tahu apa yang mereka lakukan untuk menyiksa (atau melukai) AI? Bisakah ini dihindari? Bagaimana?

Pertanyaan ini berkaitan dengan AI berbasis komputer, bukan robot, yang sama sadarnya dengan orang (ini adalah asumsi pertanyaan). Pertanyaan itu bertanya-tanya bagaimana kejahatan yang sulit dilacak seperti unduhan ilegal, tetapi jauh lebih buruk secara etis, dapat dicegah. Perhatikan bahwa meskipun kebanyakan orang bersikap baik dan berempati dengan robot, selalu ada orang jahat, dan mengandalkan nurani umum tidak akan berhasil.

Jawaban:


9

Artikel Children Beating Up Robot Menginspirasi Sistem Escape Manuver Baru didasarkan pada dua makalah penelitian tentang percobaan di mal Jepang yang menyebabkan anak-anak tanpa pengawasan menyerang robot. Makalah penelitian yang Anda minati adalah Lolos dari Pelecehan Anak terhadap Robot Sosial .

Dalam makalah penelitian itu, para peneliti dapat memprogram robot untuk mengikuti simulasi perencanaan untuk mengurangi kemungkinan pelecehan oleh anak-anak. Jika mendeteksi anak-anak, robot diprogram untuk mundur ke kerumunan orang dewasa (yang kemudian dapat mendisiplinkan anak-anak jika diperlukan). Ini terjadi karena para peneliti melihat bahwa hanya anak-anak yang memukuli robot di mal tersebut.

Mereka membahas mencoba opsi lain:

Dalam karya ini, strategi robot untuk mencegah pelecehan adalah "melarikan diri", yaitu pindah ke lokasi yang kemungkinan besar akan terjadi pelecehan. Orang bisa bertanya mengapa robot tidak bisa mengatasi penyalahgunaan. Dalam uji coba pendahuluan kami, kami telah mencoba beberapa pendekatan, tetapi kami menemukan bahwa sangat sulit bagi robot untuk membujuk anak-anak agar tidak menyalahgunakannya. Sebagai contoh, kami mengubah kata-kata robot dalam banyak hal, menggunakan kata-kata yang kuat, ekspresi emosional atau sopan, tetapi tidak ada yang berhasil. Salah satu strategi yang berhasil sebagian adalah robot 'mendorong secara fisik' anak-anak. Ketika jalannya diblokir, itu hanya akan mencoba untuk terus berjalan dan berperilaku seolah-olah itu akan bertabrakan dengan anak-anak dan memaksa jalan melalui (di bawah pengawasan cermat dari operator manusia). Kami mengamati bahwa anak-anak pada awalnya menerima permintaan robot dan menaatinya; tapi, segera mereka mengetahui bahwa mereka lebih kuat dari robot sehingga mereka dapat menang jika mereka mendorong, dan juga bahwa mereka dapat menghentikannya dengan menekan sakelar bemper (terpasang pada robot untuk keselamatan). Setelah menyadari itu, mereka hanya melanjutkan dengan perilaku kasar. Tentunya memiliki robot yang lebih kuat akan menghadirkan masalah bagi keselamatan dan penerimaan sosial sehingga menghadapi situasi pelecehan seperti itu tetap sulit.


Tetapi mari kita selidiki lebih lanjut pertanyaan Anda:

Jika AI sadar mungkin dan tersebar luas, bukankah mudah bagi seseorang yang tahu apa yang mereka lakukan untuk menyiksa AI?

Mengapa Anda menganggap penyiksaan seperti itu salah ? Lagi pula, orang bisa berargumen bahwa mesin itu tidak akan benar-benar 'mengalami' rasa sakit jika Anda menyiksanya ... jadi secara moral boleh saja untuk menyiksa mesin itu. Ini mungkin merespons seolah- olah dalam kesakitan, tetapi meragukan apakah kemampuan untuk mensimulasikan keadaan emosional seperti "sedang kesakitan" sama dengan benar - benar berada dalam keadaan emosional itu. Lihat pertanyaan Apakah simulasi keadaan emosi setara dengan benar-benar mengalami emosi? untuk diskusi lebih lanjut tentang topik ini.

Anda dapat membuat argumen seperti itu, tetapi itu tidak akan benar-benar berfungsi pada tingkat emosional karena kebanyakan manusia akan merasakan empati terhadap mesin. Mungkin sulit untuk membenarkan secara logis (dan mungkin didasarkan pada kecenderungan manusia untuk terlibat dalam antropomorfisme ), tetapi kami merasakan empati ini. Ini adalah empati yang membuat Anda mengajukan pertanyaan ini di tempat pertama, membuat para peneliti mencari cara untuk melindungi robot dari pemukulan, memungkinkan petugas polisi menangkap seorang pria Jepang yang mabuk karena memukuli robot SoftBank , dan membuat banyak manusia kecewa atas penghancuran hitchBOT . Dan itubagaimana penyalahgunaan AI akan dihindari - empati manusia. Jika kebanyakan manusia peduli dengan kesejahteraan mesin, mereka akan memprioritaskan untuk menghentikan beberapa manusia yang mampu dan mau menyalahgunakan mesin.


EDIT: OP telah mengedit pertanyaannya untuk mengklarifikasi bahwa dia berbicara tentang perangkat lunak , dan bukan tentang robot. Untuk robot, Anda dapat mengandalkan antropomorfisme untuk menghasilkan beberapa tingkat simpati, tetapi sulit untuk bersimpati dengan garis kode mentah.

Anda tidak akan menghentikan penyalahgunaan algoritma. Terus terang, karena algoritme tidak seperti kita, kita tidak akan memperluas jenis empati yang sama seperti yang kita lakukan pada robot. Bahkan chatbots agak rapuh. Jika Anda bisa membuat orang bersimpati dengan garis kode (mungkin dengan membuat simulasi yang meyakinkan antara emosi dan tenaga), maka jawaban di atas berlaku - manusia antropomorfisasi mesin dan akan muncul dengan tindakan balasan. Kami belum setingkat itu, jadi "menghentikan penyalahgunaan AI" akan menjadi prioritas rendah.

Namun, beberapa kegagalan dapat diprogram untuk membatasi kerusakan penyalahgunaan, sebagaimana dirinci dalam utas ini tentang penyalahgunaan chatbot - membuat bot merespons dengan cara yang membosankan untuk membuat pelaku merasa bosan dan pindah ke target berikutnya, merespons kembali ke pelaku. dalam "pertempuran akal", atau bahkan hanya menghalangi para pelaku menggunakan layanan.

Failafes ini adalah kenyamanan dingin bagi mereka yang ingin mencegah pelecehan, bukan menanggapinya.

Juga ... seorang pelaku dapat dengan senang hati mempelajari cara memprogram AI untuk kemudian menyalahgunakan isi hatinya. Tidak ada yang bisa dilakukan untuk menghentikan itu, dan tindakan apa pun yang mungkin untuk menghentikan penyalahgunaan tersebut (seperti memantau setiap manusia untuk memastikan mereka tidak memprogram AI untuk penyalahgunaan) mungkin akan menyebabkan lebih banyak kerusakan daripada yang dipecahkannya.


TBH ini tidak benar-benar menjawab pertanyaan saya, saya kira, saya akan mengedit pertanyaan itu sedikit lagi.
Destructible Lemon

1
@TariqAli Terima kasih untuk posting ini. Saya tidak mengetahui masalah tentang interaksi anak-anak dengan robot sosial, yang menurut saya lucu dan pedih. (Saya ingat menjadi anak kecil di Disney World dan "menyerang" karakter Disney yang dikonsumsi seperti Mickey Mouse karena berlebihan pemujaan.)
DukeZhou

6

Saya sarankan Anda melihat semua cara yang kami coba untuk menghentikan orang dari menyalahgunakan ORANG LAIN. Tidak ada area abu-abu etis di sini - semua orang jelas bahwa ini salah. Namun orang-orang dibunuh, diperkosa, dan diserang dalam jutaan mereka setiap hari.

Ketika kami memecahkan masalah ini terkait dengan korban manusia, solusi yang dihasilkan kemungkinan besar akan bekerja dengan baik untuk AI juga.


Saya sudah siap untuk mengatakan mengapa ini tidak sepenuhnya berlaku, tetapi Anda mungkin benar juga ...
Destructible Lemon

-1

Perspektif AI dan perspektif luar yang agresif tidak dapat diduplikasi. Program ini tidak dididik atau dirancang seperti kecerdasan alami kita. Data AI tidak dapat dibandingkan dengan kecerdasan Humaniora sesuai dengan prosesi pemikiran emosional-sosial yang dikembangkan oleh orang dewasa yang berpengalaman karena desain kita tidak dipatenkan. seperti pemrograman AI Life yang diduplikasi melalui teori teknik berdasarkan contoh saja tidak akan cukup pengalaman adalah manusia yang membuat pengetahuan tetapi dengan tindakan dari waktu ke waktu bukan tindakan yang dirancang melalui rekayasa opini-doktor-emosional. Namun AI dapat menggunakan pengiriman emosional kami dituliskan secara konseptual dengan perangkat lunak yang didasarkan pada contoh tindakan manusia yang memprediksi respons yang tidak wajar dalam hal mendikte dialog penerima manusia bereaksi tanpa menanggapi seolah-olah mereka mengerti bahwa bot adalah buatan yang dipatenkan yang dirancang berdasarkan pengiriman emosional kita yang dituliskan untuk percakapan kita akan dapat mendiagnosis melalui sebab dan akibat. Bukan pengalaman yang masuk akal kita membutuhkannya menjadi AI yang menjadi bot berpengalaman emosional harus artifisial emosi untuk bot membedakan validitas kita. Sebagai gantinya, kita akan melihat hasil apa yang kita dapatkan dari sifat-sifat perangkat lunak program dasar yang membuat bot bereaksi terhadap kecerdasan buatan buatan yang dirancang secara konseptual dengan mekanisme perangkat lunak emosional sehingga kita tidak tahu hasil apa yang kita dapat secara artifisial.


2
1. Harap format pos ini dengan lebih baik, 2. Sadar AI adalah aksioma dari pertanyaan, bukan pertanyaan
Destructible Lemon
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.