Apakah Hukum Asimov cacat oleh desain, atau apakah layak dalam praktiknya?


19

Tiga Hukum Robotika karya Isaac Asimov yang terkenal berasal dari konteks cerita fiksi ilmiah Asimov. Dalam cerita-cerita itu, ketiga undang-undang tersebut berfungsi sebagai langkah keamanan, untuk menghindari situasi yang tidak tepat waktu atau dimanipulasi agar tidak meledak dalam kekacauan.

Lebih sering daripada tidak, narasi Asimov akan menemukan cara untuk melanggarnya, membuat penulis membuat beberapa modifikasi pada undang-undang itu sendiri. Misalnya, dalam beberapa ceritanya, ia memodifikasi Hukum Pertama , menambahkan Hukum Keempat (atau Zeroth) , atau bahkan menghapus semua Hukum sekaligus .

Namun, mudah untuk menyatakan bahwa, dalam budaya populer, dan bahkan dalam bidang penelitian AI sendiri, Hukum Robotika ditanggapi dengan cukup serius. Mengabaikan masalah sampingan dari interpretasi hukum yang berbeda, subyektif, dan saling eksklusif, adakah argumen yang membuktikan bahwa hukum itu sendiri secara intrinsik cacat oleh rancangannya, atau, sebagai alternatif, cukup kuat untuk digunakan dalam kenyataan? Demikian juga, apakah heuristik keamanan yang lebih baik dan lebih ketat telah dirancang untuk tujuan tersebut?


Waspadalah dengan Killbot Hellscape! xkcd.com/1613
NietzscheanAI

Kami tidak melupakan kemungkinan ini: xkcd.com/1450
dynrepsys

Undang-undang Asimov hanyalah upaya kecil untuk memulai diskusi. Untuk diskusi yang lebih menyeluruh, bacalah "Superintelligence" oleh Nick Bostrom - itu sangat lengkap karena didasarkan pada pengetahuan dan pemahaman saat ini.
Florin Andrei

Jawaban:


12

Hukum Asimov tidak cukup kuat untuk digunakan dalam praktik. Kekuatan bahkan tidak menjadi pertimbangan, ketika mempertimbangkan bahwa karena mereka ditulis dalam kata-kata bahasa Inggris pertama-tama harus ditafsirkan secara subyektif untuk memiliki makna sama sekali. Anda dapat menemukan diskusi yang bagus tentang ini di sini .

Untuk menyalin kutipan:

Bagaimana Anda mendefinisikan hal-hal ini? Bagaimana Anda mendefinisikan "manusia", tanpa terlebih dahulu harus mengambil sikap di hampir setiap masalah. Dan jika "manusia" tidak cukup keras, Anda harus mendefinisikan "kerusakan", dan Anda memiliki masalah yang sama lagi. Hampir semua definisi yang sangat jelas dan ambigu yang Anda berikan untuk kata-kata itu — yang tidak bergantung pada intuisi manusia — menghasilkan keanehan-keanehan filosofi, yang membuat AI Anda melakukan sesuatu yang sebenarnya tidak Anda inginkan.

Orang dapat dengan mudah membayangkan bahwa Asimov cukup pintar untuk mengetahui hal ini dan lebih tertarik pada penulisan cerita daripada merancang protokol kontrol AI dunia nyata.

Dalam novel Neuromancer , disarankan bahwa AI mungkin bisa berfungsi sebagai pemeriksaan terhadap satu sama lain. Singularitas yang akan datang dari Ray Kurzweil , atau kemungkinan AGI yang sangat cerdas, mungkin tidak meninggalkan banyak kemungkinan bagi manusia untuk mengendalikan AI sama sekali, meninggalkan peraturan rekan sebaya sebagai satu-satunya kemungkinan yang mungkin.

Patut dicatat bahwa Eliezer Yudkowsky dan yang lainnya menjalankan eksperimen di mana Yudkowsky memainkan peran sebagai AI yang superintelijen dengan kemampuan berbicara, tetapi tidak ada koneksi lain di luar kotak yang terkunci. Para penantang ditugaskan hanya untuk menjaga AI di dalam kotak di semua biaya. Yudkowsky lolos dua kali.


Apakah Anda tahu jika ada transkrip percobaan Yudkowsky yang pernah dirilis? Tautan yang Anda berikan (dan pertukaran email yang kemudian ditautkan dengannya) tampaknya tidak memberikannya.
NietzscheanAI

@ user217281728 Tidak, saya mencarinya tetapi sepertinya dia menyimpannya, yaitu strateginya tersembunyi untuk mempertahankan kemungkinan melakukannya lagi. Saya punya beberapa ide tentang apa yang dia katakan dan mengapa saya berpikir demikian, bahwa saya akan senang berbagi jika Anda DM saya.
dynrepsys

Saya sekarang sudah melakukan ini.
NietzscheanAI

Saya mendapat kesan bahwa Asimov cukup pintar untuk mengetahui hal ini, tetapi intinya adalah bahwa aturan sederhana tidak berfungsi. Menunjukkan contoh negatif ("Anda tidak bisa hanya mengatakannya untuk tidak menyakiti orang lain, itu tidak akan berhasil") adalah pekerjaan kontrol AI dunia nyata yang berguna dengan sendirinya.
Matthew Graves

2

Asimov membuat tiga undang - undang secara khusus untuk membuktikan bahwa tidak ada tiga undang-undang yang memadai, tidak peduli seberapa masuk akalnya pada awalnya. Saya tahu seorang pria yang mengenal pria itu dan dia mengkonfirmasi hal ini.


2
"Aku kenal seorang pria yang mengenalnya" ... Apakah kamu tidak memiliki sumber yang sedikit lebih dapat diandalkan? Saya tidak meragukan jawaban Anda, tetapi pasti sudah ada kutipan yang tepat tentang masalah ini.
3442

Namanya adalah Ben Williams. Ini adalah pos Google Plus di mana ia menggambarkan pendapatnya tentang Asimov dan Tiga Hukum: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

Pertimbangkan hukum robotika pertama Asimov:

Robot tidak boleh melukai manusia atau, karena tidak ada tindakan, memungkinkan manusia untuk terluka.

Undang-undang itu sudah bermasalah, ketika mempertimbangkan mobil yang bisa menyetir sendiri.

Apa masalahnya di sini, Anda bertanya? Mungkin Anda akan terbiasa dengan eksperimen pemikiran klasik dalam etika yang dikenal sebagai masalah troli . Bentuk umum dari masalahnya adalah ini:

Troli langsung menuju ke mereka. Anda berdiri agak jauh di halaman kereta, di samping tuas. Jika Anda menarik tuas ini, troli akan beralih ke rangkaian trek yang berbeda. Namun, Anda perhatikan bahwa ada satu orang di jalur samping. Anda memiliki dua opsi: (1) Tidak melakukan apa-apa, dan troli membunuh lima orang di jalur utama. (2) Tarik tuas, alihkan troli ke jalur samping tempat itu akan membunuh satu orang. Pilihan mana yang benar?

sumber: Wikipedia

Mobil self-driving sebenarnya perlu menerapkan variasi kehidupan nyata pada masalah troli, yang pada dasarnya berarti bahwa mobil self-driving perlu diprogram untuk membunuh manusia .

Tentu saja itu tidak berarti bahwa SEMUA robot perlu diprogram untuk membunuh, tetapi mobil yang bisa mengemudi sendiri adalah contoh yang baik dari jenis robot yang mau.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.