Mengapa etika tidak lebih terintegrasi ke dalam sistem AI saat ini?


9

Saya seorang mahasiswa PhD di bidang ilmu komputer, dan saat ini menciptakan tinjauan umum canggih dalam aplikasi yang dilakukan dalam Etika Mesin (bidang multidisiplin yang menggabungkan filsafat dan AI, yang berupaya menciptakan program atau agen etis eksplisit). Tampaknya lapangan sebagian besar berisi argumen teoretis dan implementasi yang relatif sedikit, meskipun ada banyak orang dengan latar belakang teknis di lapangan.

Saya mengerti bahwa karena etika terlibat, tidak ada kebenaran dasar dan karena itu bagian dari filosofi seseorang dapat tersesat dalam berdebat tentang jenis etika mana yang harus dilaksanakan dan bagaimana ini dapat dilakukan dengan sebaik-baiknya. Namun, dalam ilmu komputer, biasanya bahkan mencoba implementasi sederhana untuk menunjukkan kemungkinan atau keterbatasan pendekatan Anda.

Apa alasan yang mungkin ada begitu sedikit yang dilakukan dalam menerapkan etika secara eksplisit dalam AI dan bereksperimen dengannya?


2
Contoh pendekatan dapat ditemukan dalam makalah ini dan ini ikhtisar.
Suzanne

Jawaban:


2

Ini tentu jawaban tingkat tinggi, dan sangat spekulatif, tetapi saya telah memikirkan pertanyaan ini, dan inilah pemikiran saya:

  • Menerapkan algoritma etika memerlukan dasar matematika untuk filosofi karena komputer adalah mesin yang berbeda

Setelah kegagalan Russell & Whitehead yang terkenal, dan teorema ketidaklengkapan Gödel, ini tampaknya menjadi masalah.

  • AI adalah bidang yang sangat diterapkan, terutama saat ini per validasi berkelanjutan dari pembelajaran yang mendalam, dan tidak ada perusahaan yang ingin mendekati masalah etika kecuali mereka dipaksa untuk

Jadi, Anda melihatnya di mobil self-driving karena para insinyur tidak punya pilihan selain bergulat dengan masalah. Sebaliknya, saya tidak berpikir Anda akan melihat banyak perusahaan perdagangan algoritmik saham, di mana bisnis adalah efisiensi Pareto , khawatir tentang etika atau dampak sosial dari spekulasi keuangan. (Solusi untuk "flash crashes" tampaknya telah menjadi aturan untuk penangguhan sementara perdagangan, alih-alih mengatasi nilai sosial dari perdagangan algoritmik frekuensi tinggi.) Contoh yang lebih jelas adalah perusahaan media sosial mengabaikan jumlah penyalahgunaan informasi yang berlebihan (disinformasi) dan informasi yang salah) diposting di situs mereka, memohon ketidaktahuan, yang sangat mencurigakan bahwa kegiatan yang dihasilkan oleh penyalahgunaan informasi secara positif memengaruhi laba mereka.

  • Bidang terapan cenderung didominasi oleh laba

Arahan utama perusahaan adalah mengembalikan laba kepada investor. Bukan hal yang aneh bagi perusahaan untuk melanggar hukum ketika denda dan hukumannya diharapkan lebih kecil dari keuntungan yang diperoleh dari aktivitas ilegal. (Ada konsep etika dalam bisnis, tetapi budaya pada umumnya tampaknya menilai orang dan perusahaan berdasarkan berapa banyak uang yang mereka hasilkan, terlepas dari caranya.)

  • Implementasi etika mesin sedang dieksplorasi di area di mana mereka perlu untuk menjual produk, tetapi di tempat lain, itu masih sebagian besar hipotetis

Jika kecerdasan super berevolusi dan menghapus kemanusiaan (karena beberapa orang yang sangat pintar dengan keterampilan matematika unggul memperingatkan kita,) perasaan saya adalah bahwa itu akan menjadi fungsi alam, di mana evolusi yang tidak dibatasi dari algoritma ini adalah karena penggerak ekonomi yang berfokus pada hiper automata partisan dalam industri seperti spekulasi keuangan dan perang otonom. Intinya, mengejar keuntungan dengan segala cara, apa pun dampaknya.


Pengambilan yang menarik, aspek keuntungan! Tidak pernah memikirkan hal itu karena saya sangat fokus pada alasan penelitian, tetapi masuk akal bahwa tidak ada tekanan dari industri baik untuk penelitian untuk mengejar lebih lanjut.
Suzanne

@SuzanneTolmeijer Terima kasih. Saya telah mempelajari bagaimana teori permainan terhubung dengan etika selama beberapa tahun sekarang. (Sebagian besar filsafat awal di mana, misalnya, "keseimbangan" dikatakan sebagai "baik" - keseimbangan adalah fungsi kesetimbangan dan dapat secara tepat didefinisikan secara matematis. Ini berkaitan dengan ekonomi dalam stabilitas yang umumnya dipahami optimal, di mana ketidakstabilan berpotensi menjadi bencana besar.) Tapi saya bukan satu-satunya penyumbang AI yang menyentuh faktor pendorong ekonomi di bidang ini, dan potensi bahaya dari apa yang saya sebut sebagai "hyperpartisan AI".
DukeZhou

1

Saya merasa bagian dari masalah mengapa ada sangat sedikit di jalan implementasi etika teknologi AI / ML, hanya karena tidak ada kebutuhan atau aplikasi yang tepat dari kerangka kerja teoritis.

Maksud saya, tidak ada cara substansial kita dapat menerapkan pemahaman ini untuk algoritma dan model yang tidak dapat berinteraksi dengan cara yang bermakna. Kami memiliki kerangka teoretis yang besar tentang keselamatan / etika AI karena sangat penting. Kita perlu membuat pedoman yang aman untuk menerapkan AI yang kuat sebelum dibuat.

Beberapa makalah yang sangat fokus telah mulai mempersempit masalah dalam menciptakan sistem AI yang etis / aman. Lihat Masalah Beton dalam Keamanan AI


Tampaknya ada kebutuhan untuk etika eksplisit, setidaknya banyak peneliti menyerukan peningkatan etika eksplisit (misalnya Moor 2006 ). Dalam hal penerapan kerangka teoretis yang tepat, Anda mungkin benar: implementasi menyiratkan beberapa interpretasi dalam beberapa kasus, yang terbukti sulit. Namun, Anda setuju bahwa pedoman aman untuk AI penting, yang berarti pedoman praktis tentang apa yang kami anggap 'benar' atau 'etis' untuk dilakukan oleh mesin kami. Pedoman ini akan menyiratkan bagaimana menerapkan etika dalam mesin dalam beberapa cara.
Suzanne

1

Dengan metode imitasi, perilaku yang paling tepat dapat diintegrasikan ke dalam kecerdasan buatan. Kecerdasan buatan dapat dibentuk kembali ketika posisi etis berubah. Ini digunakan untuk tujuan ideologis atau untuk mengumpulkan informasi. Tidak jelas apa robot itu.


1

Kita dapat mengambil model kesalahan ke akuntan. Mengenali bias dan varians di antara kinerja di bawah jaringan saraf bisa menjadi langkah pertama. Dan kemudian kita dapat mendiskusikan apakah kinerja seperti itu diperbolehkan. Sejauh yang kami tahu, praktik etnik membutuhkan studi empiris dan lapangan. kita tidak bisa begitu saja mengambil alasan dan esai kertas untuk menentukan apakah perbuatan mesin yang dipelajari salah atau tidak. Lebih lanjut dapat dibagi menjadi kecelakaan, kesalahan, atau bahkan bug yang dibuat dari pengembang.


Poin menarik yang Anda ajukan di sini pada dasarnya adalah, langkah apa yang dapat digunakan untuk menguji sistem, dan bagaimana Anda menentukan apakah sistem berkinerja akurat? Ini adalah sesuatu yang hilang di lapangan, dan saya merasa memang bagian dari masalahnya memang: bagaimana menguji sistem Anda tanpa kebenaran dasar? Manakah (dimensi dalam) ukuran yang masuk akal dalam konteks algoritma etis eksplisit? Tanpa itu, Anda tidak memiliki cara untuk membandingkan sistem, yang membatasi kemajuan di lapangan.
Suzanne

1

Secara intuitif, tampaknya ada sedikit penelitian tentang penerapan etika AI karena:

  1. Masyarakat secara keseluruhan tampaknya setuju dengan nyaman bahwa keadaan kecerdasan mesin saat ini tidak cukup kuat untuk dianggap sebagai sadar atau hidup. Jadi kita tidak perlu memberikannya hak etis (belum).

  2. Implementasi perilaku etis ke dalam suatu program membutuhkan metode agar komputer mampu menafsirkan "makna", yang kita belum tahu bagaimana melakukannya.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.