Bisakah seorang AI berpikir lateral sambil menghindari pilihan-pilihan “secara etis kurang optimal”?


13

Dalam gim PC terbaru The Turing Test , AI ("TOM") membutuhkan bantuan dari Ava untuk melewati beberapa ruang puzzle. TOM mengatakan dia tidak dapat memecahkan teka-teki karena dia tidak diizinkan untuk " berpikir secara lateral ." Secara khusus, dia bilang dia tidak akan berpikir untuk melempar sebuah kotak melalui jendela untuk menyelesaikan ruang pertama. Penciptanya, ceritanya, mematikan kemampuan itu karena pemikiran seperti itu dapat menghasilkan solusi "secara etis kurang optimal", seperti memotong lengan untuk pergi di atas pressure plate.

Apakah semua kemampuan memecahkan teka-teki yang kreatif perlu dihapus dari AI agar hasilnya tetap masuk akal, atau bisakah kita mendapatkan beberapa manfaat dari berpikir lateral tanpa kehilangan lengan?

Jawaban:


17

Tidak , dengan tapi . Kita dapat memiliki pemecahan masalah yang kreatif namun etis jika sistem tersebut memiliki sistem etika yang lengkap, tetapi jika tidak kreativitas akan tidak aman secara default.

Seseorang dapat mengklasifikasikan pendekatan pengambilan keputusan AI menjadi dua jenis: pemikir interpolatif, dan pemikir ekstrapolatif.

Pemikir interpolatif belajar untuk mengklasifikasikan dan meniru apa pun yang mereka pelajari, dan jangan mencoba memberikan hasil yang masuk akal di luar domain pelatihan mereka. Anda dapat menganggapnya sebagai interpolasi antara contoh pelatihan, dan mendapatkan manfaat dari semua jaminan dan ketentuan matematika sebagai teknik statistik lainnya.

Pemikir ekstrapolatif belajar memanipulasi prinsip-prinsip dasar, yang memungkinkan mereka untuk menggabungkan prinsip-prinsip itu dengan cara yang sebelumnya tidak dipertimbangkan. Bidang yang relevan untuk intuisi di sini adalah optimasi numerik , yang contoh paling sederhana dan paling terkenal adalah pemrograman linier , daripada bidang statistik yang melahirkan pembelajaran mesin. Anda dapat menganggapnya sebagai ekstrapolasi di luar contoh pelatihan (memang, banyak dari mereka bahkan tidak memerlukan contoh pelatihan, atau menggunakan contoh-contoh itu untuk menyimpulkan prinsip-prinsip yang mendasarinya).

Janji para pemikir ekstrapolatif adalah bahwa mereka dapat menemukan solusi-solusi 'lateral' ini jauh lebih cepat daripada yang dapat dilakukan manusia. Masalah dengan para pemikir ekstrapolatif ini adalah bahwa mereka hanya menggunakan prinsip-prinsip yang diucapkan, bukan yang tidak terucapkan yang mungkin tampak terlalu jelas untuk disebutkan.

Atribut solusi untuk masalah optimisasi adalah bahwa vektor fitur seringkali 'ekstrem' dalam beberapa cara. Dalam pemrograman linier, setidaknya satu titik ruang solusi yang layak akan optimal, sehingga metode solusi sederhana menemukan titik optimal (yang hampir tidak mungkin karena menjadi titik).

Sebagai contoh lain, solusi bahan bakar minimum untuk memindahkan pesawat ruang angkasa dari satu posisi ke posisi lain disebut ' bang-bang ,' di mana Anda mempercepat pesawat secepat mungkin di awal dan akhir lintasan, meluncur dengan kecepatan maksimum di antara .

Sementara kebajikan ketika sistem dengan benar dipahami (Bang-bang adalah optimal untuk banyak kasus), ini adalah bencana ketika sistem tidak benar dipahami. Contoh favorit saya di sini adalah masalah diet Dantzig (diskusi dimulai pada halaman 5 dari pdf), di mana ia mencoba untuk mengoptimalkan dietnya menggunakan matematika. Di bawah set kendala pertamanya, dia seharusnya minum 500 galon cuka sehari. Di bawah yang kedua, 200 kubus kaldu. Di bawah ketiganya, dua pon dedak. Pertimbangan yang membuat ide-ide yang jelas-jelas buruk itu tidak dimasukkan ke dalam sistem, dan oleh karena itu sistem dengan polos menyarankannya.

Jika Anda dapat sepenuhnya menyandikan pengetahuan dan nilai-nilai yang digunakan seseorang untuk menilai rencana-rencana ini ke dalam AI, maka sistem ekstrapolatif sama amannya dengan orang itu. Mereka akan dapat mempertimbangkan dan menolak jenis rencana ekstrem yang salah, dan memberi Anda rencana ekstrem yang tepat.

Tetapi jika Anda tidak bisa, maka masuk akal untuk tidak membangun pembuat keputusan ekstrapolatif, dan sebaliknya membangun yang interpolatif. Artinya, alih-alih bertanya pada dirinya sendiri "bagaimana cara terbaik mencapai tujuan X?" itu bertanya pada dirinya sendiri "apa yang akan dilakukan seseorang dalam situasi ini?". Yang terakhir mungkin jauh lebih buruk dalam mencapai tujuan X, tetapi memiliki risiko ekor jauh lebih sedikit dari mengorbankan tujuan lain untuk mencapai X.


2

Etika melibatkan hubungan kebutuhan antara dua pihak atau lebih. Seperti yang dikatakan Matthew Graves, jika AI tidak memiliki konteks manusia yang memadai (pemahaman tentang kebutuhan), itu akan menghasilkan perilaku etis yang tampaknya menyimpang.

Dan jujur ​​saja, beberapa orang akan memotong lengan orang lain dan menaruhnya di piring. Bahkan yang terbaik dari kita tidak akan dapat bersimpati dengan kebutuhan orang lain dengan akurasi 100% - yang terbaik, kami menebak. Dan kemudian ada situasi-situasi langka di mana saya benar - benar ingin Anda memotong lenganku dan meletakkannya di atas pressure plate, mungkin untuk menyelamatkan orang yang dicintai.

Jika kita dapat membuat sesuatu yang dapat bersimpati dengan apa yang mungkin dibutuhkan manusia dalam situasi sewenang-wenang apa pun, maka kita akan menciptakan A) kecerdasan buatan manusia (AHI) (yang bisa sedikit banyak keliru, seperti manusia), atau B) sebuah ramalan yang dapat menjelaskan tentang semua kebutuhan manusia yang mungkin lebih cepat daripada skala waktu manusia - dalam hal ini Anda tidak akan membutuhkan AI yang sadar, karena semua kebutuhan manusia dan solusi dapat dihitung sebelumnya melalui spesifikasi formal, yang mungkin tidak masuk akal untuk dipertimbangkan.


0

Anda dapat mempertimbangkan pemrograman sebagai bagian etis dari desain juga. AI akan bertindak berdasarkan apa yang telah diperintahkan kepadanya sebagai hal yang penting secara etis atau tidak. Bahkan mungkin / harus menjadi bagian dari parameter yang menempa proses menemukan solusi, yang dapat memungkinkan solusi yang lebih halus dan kreatif.

Kami memahami dasar-dasar etika dalam keadaan normal, tetapi jika kami tidak dapat memprediksi bagaimana manusia akan berperilaku dalam teka-teki etis, kami dapat menegakkan apa yang tidak akan dilakukan AI.

Selama kami memiliki kendali atas mekanisme yang menggerakkan AI, kami yakin memiliki responsabilitas untuk menyuntikkan kegagalan etis. Masalahnya terletak pada AI yang diajarkan sendiri dengan kemampuan untuk mengesampingkan arahan. (CF Asimov Laws.)

Cara AI kreatif tampaknya tidak relevan dalam kasus itu.


-1

Banyak dari ini tergantung pada luasnya pertimbangan. Sebagai contoh, apa efek jangka menengah dan panjang dari pemikiran lateral? Robot dapat memutuskan lengan untuk pelat tekanan tetapi itu berarti bahwa orang tersebut tidak lagi memiliki lengan, batasan fungsional yang terbaik, bahwa orang tersebut mungkin kehabisan darah dan mati / menjadi sangat dibatasi, dan bahwa orang (dan orang-orang di umum) keduanya tidak lagi bekerja sama dan kemungkinan berusaha untuk menghilangkan robot Orang bisa berpikir lateral karena mempertimbangkan hal-hal ini - etika sebenarnya tidak lebih dari seperangkat pedoman yang mencakup pertimbangan ini. Robot juga bisa, jika dirancang untuk mempertimbangkan eksternalitas ini.

Jika semuanya gagal,

Hukum Robotika Asimov: (0. Robot tidak boleh membahayakan umat manusia, atau, karena tidak bertindak, memungkinkan umat manusia untuk dirugikan.) 1. Robot tidak boleh melukai manusia atau, karena tidak bertindak, memungkinkan manusia untuk datang ke membahayakan. 2. Robot harus mematuhi perintah yang diberikan oleh manusia kecuali jika perintah tersebut akan bertentangan dengan Hukum Pertama. 3. Robot harus melindungi keberadaannya sendiri selama perlindungan tersebut tidak bertentangan dengan Hukum Pertama atau Kedua

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.