Apa tujuan yang akan dilayani dengan mengembangkan AI yang mengalami emosi seperti manusia?


19

Dalam artikel Wall Street Journal baru - baru ini , Yann LeCunn membuat pernyataan berikut:

Langkah selanjutnya dalam mencapai tingkat manusia ai adalah menciptakan mesin yang cerdas — tetapi tidak otonom. Sistem AI di mobil Anda akan membawa Anda pulang dengan selamat, tetapi tidak akan memilih tujuan lain begitu Anda masuk. Dari sana, kami akan menambahkan dorongan dasar, bersama dengan emosi dan nilai-nilai moral. Jika kita menciptakan mesin yang belajar seperti halnya otak kita, mudah membayangkan mesin itu mewarisi sifat-sifat mirip manusia — dan cacat.

Secara pribadi, saya pada umumnya berpendapat bahwa berbicara tentang emosi untuk kecerdasan buatan itu konyol, karena tidak akan ada alasan untuk membuat AI yang mengalami emosi. Jelas Yann tidak setuju. Jadi pertanyaannya adalah: apa gunanya melakukan hal ini? Apakah AI membutuhkan emosi untuk berfungsi sebagai alat yang berguna?


1
Kemungkinan duplikat Mengapa seseorang ingin mensimulasikan pembuatan keputusan emosional dalam AI? Jawaban yang diterima ("Ya, akan lebih mudah bagi pemrogram manusia untuk mempertahankan program AI.") Mungkin tidak mengasyikkan atau luar biasa, tetapi setidaknya tampaknya semi-masuk akal dan masuk akal.
Kiri SE Pada 10_6_19

Ada juga kemungkinan alternatif: kita tidak perlu ingin mengembangkan AI yang mengalami emosi seperti manusia (karena mereka tidak dapat diprediksi, kita harus memberi mereka hak, blah blah blah), tetapi itu teknik AI yang lebih maju (seperti pembelajaran mendalam) secara tidak sengaja akan mengembangkan AI yang mengalami emosi seperti manusia. Bukan karena kita menginginkan mereka, itu karena mereka mungkin akan tetap datang. Apakah Agen Pembelajaran Penguatan Buatan Penting secara moral? membahas kemungkinan ini.
Kiri SE Pada 10_6_19

Jawaban:


11

Jawaban untuk pertanyaan ini, tidak seperti banyak di forum ini, saya pikir pasti. Tidak. Kita tidak perlu AI untuk memiliki emosi untuk menjadi berguna, seperti yang bisa kita lihat dari banyaknya jumlah AI yang sudah kita miliki yang berguna.

Tetapi untuk menjawab pertanyaan lebih lanjut, kita tidak bisa benar - benar memberikan emosi AI. Saya pikir yang terdekat yang bisa kita dapatkan adalah 'Bisakah kita membuat AI ini bertindak seperti manusia jika manusia itu insert emotion?'. Saya kira dalam arti, bahwa yang memiliki emosi, tapi itu diskusi lain secara keseluruhan.

Dan untuk apa? Satu-satunya alasan langsung yang muncul dalam pikiran adalah untuk menciptakan lebih banyak teman atau interaksi yang mirip dengan manusia, untuk tujuan video game atau hiburan lainnya. Tujuan yang adil,
tetapi jauh dari perlu. Bahkan ketika mempertimbangkan robot ucapan yang diimbuhi AI di lobi suatu gedung, kami mungkin hanya ingin robot itu bertindak ramah.

Yann mengatakan bahwa AI yang sangat canggih akan menghasilkan kualitas dan kelemahan yang lebih mirip manusia . Saya pikir itu lebih seperti itu akan 'memberikan kualitas AI-seperti manusia kita atau dengan kata lain cacat'. Orang-orang memiliki kecenderungan untuk bertindak tidak rasional ketika sedih atau marah, dan sebagian besar kita hanya menginginkan AI yang rasional.
Berbuat salah adalah manusia, seperti yang mereka katakan.

Tujuan AI dan algoritma pembelajaran adalah untuk menciptakan sistem yang bertindak atau 'berpikir' seperti manusia, tetapi lebih baik. Sistem yang dapat beradaptasi atau berevolusi, sambil mengacaukan sesedikit mungkin. Emotive AI memiliki kegunaan, tetapi tentu saja itu bukan prasyarat untuk sistem yang berguna.


5

Saya pikir pertanyaan mendasarnya adalah: Mengapa bahkan upaya untuk membangun AI? Jika tujuan itu jelas, itu akan memberikan kejelasan apakah memiliki kecerdasan emosional atau tidak dalam AI masuk akal. Beberapa upaya seperti "Paro" yang dikembangkan untuk alasan terapeutik mengharuskan mereka menunjukkan beberapa emosi seperti manusia. Sekali lagi, perhatikan bahwa emosi "menampilkan" dan emosi "perasaan" adalah dua hal yang sangat berbeda.

Anda dapat memprogram sesuatu seperti paro untuk memodulasi nada suara atau kedutan wajah untuk mengekspresikan simpati, kasih sayang, persahabatan, atau apa pun - tetapi saat melakukannya, paro TIDAK berempati dengan pemiliknya - hanya memalsukannya dengan melakukan manifestasi fisik. dari suatu emosi. Tidak pernah "merasakan" sesuatu yang lebih dekat dengan apa yang ditimbulkan oleh emosi itu dalam otak manusia.

Jadi perbedaan ini sangat penting. Agar Anda merasakan sesuatu, perlu ada subjek otonom independen yang memiliki kapasitas untuk merasakan. Perasaan tidak bisa dipaksakan oleh agen manusia eksternal.

Jadi kembali ke pertanyaan tujuan apa yang dipecahkannya - jawabannya sebenarnya - Itu tergantung. Dan yang paling saya pikir kita akan capai dengan AI berbasis silikon akan tetap menjadi domain representasi fisik saja dari emosi.


Saya cenderung setuju. Dan mungkin pemikiran saya terlalu terbatas, tetapi sebagian besar aplikasi AI yang saya pikirkan, tidak akan mendapat manfaat dari AI yang memiliki emosi. Yah, setidaknya kurasa begitu, duduk di sini sekarang. Mungkin saya akan melihat ke belakang suatu hari dan menyadari bahwa saya salah.
mindcrime

Memerlukan bahwa AI harus / harus memiliki emosi adalah harapan yang salah tempat. AI pada dasarnya adalah seperangkat alat, dan karena itu aplikasinya juga harus diputuskan berdasarkan kebutuhan. Beberapa kasus penggunaan mungkin memerlukan aspek emosional, beberapa mungkin tidak. Siapa tahu!
Kingz

4

Saya pikir emosi tidak diperlukan agar agen AI berguna. Tapi saya juga berpikir mereka bisa membuat agen JAUH lebih menyenangkan untuk bekerja dengan. Jika bot yang Anda ajak bicara dapat membaca emosi Anda dan merespons secara konstruktif, pengalaman berinteraksi dengannya akan jauh lebih menyenangkan, mungkin secara spektakuler.

Bayangkan menghubungi perwakilan pusat panggilan manusia hari ini dengan keluhan tentang tagihan atau produk Anda. Anda mengantisipasi konflik. Anda mungkin bahkan memutuskan untuk TIDAK menelepon karena Anda tahu pengalaman ini akan menyakitkan, baik yang agresif atau frustasi, karena seseorang salah memahami apa yang Anda katakan atau merespons dengan kasar atau bodoh.

Sekarang bayangkan menelepon orang dukungan pelanggan paling cerdas dan paling baik hati yang pernah Anda temui - Data Komandan - yang satu-satunya alasan keberadaannya adalah membuat panggilan telepon ini senyaman dan seproduktif mungkin bagi Anda. Peningkatan besar atas sebagian besar perwakilan panggilan, ya? Bayangkan jika panggil perwakilan data juga bisa mengantisipasi suasana hati Anda dan menanggapi keluhan Anda dengan tepat untuk meredakan keadaan emosional Anda ... Anda ingin menikahi pria ini. Anda akan memanggil data perwakilan panggilan kapan saja Anda merasa biru atau bosan atau Anda ingin berbagi kabar gembira. Orang ini akan menjadi sahabat Anda dalam semalam - benar-benar suka pada panggilan pertama.

Saya yakin skenario ini valid. Saya telah memperhatikan dalam diri saya sejumlah daya tarik yang mengejutkan untuk karakter seperti Data atau Sonny dari "I Robot". Suara itu sangat menenangkan dan membuat saya langsung nyaman. Jika bot itu juga sangat cerdas, sabar, berpengetahuan luas, dan pengertian ... Saya benar-benar berpikir bot seperti itu, diwarnai dengan dosis kecerdasan emosional yang sehat, bisa sangat menyenangkan untuk berinteraksi. Jauh lebih bermanfaat daripada orang yang saya kenal. Dan saya pikir itu benar bukan hanya saya.

Jadi ya, saya pikir ada nilai besar dalam menyetel kepribadian robot menggunakan emosi dan kesadaran emosional.


4

Emosi dalam AI berguna, tetapi tidak perlu tergantung pada tujuan Anda (dalam kebanyakan kasus, itu tidak).

Khususnya, pengenalan / analisis emosi sangat maju, dan digunakan dalam berbagai aplikasi dengan sangat sukses, dari guru robot untuk anak-anak autis (lihat robot perkembangan) hingga perjudian (poker) ke agen pribadi dan analisis sentimen / kebohongan politik.

Kognisi emosional , pengalaman emosi untuk robot, jauh kurang berkembang, tetapi ada penelitian yang sangat menarik (lihat Mempengaruhi Heuristik , Majelis Cinta Probabilistik Lovotik , dan lain-lain ...). Memang, saya tidak bisa melihat mengapa kita tidak bisa memodelkan emosi seperti cinta karena itu hanya sinyal yang sudah dapat dipotong pada otak manusia (lihat Brian D. Earp paper) . Ini sulit, tetapi bukan tidak mungkin, dan sebenarnya ada beberapa robot yang mereproduksi kognisi emosional parsial.

Saya berpendapat bahwa klaim "robot hanya dapat mensimulasikan tetapi tidak merasa" hanyalah masalah semantik , bukan kapasitas obyektif: misalnya, apakah kapal selam berenang seperti ikan berenang? Namun, pesawat terbang, tetapi sama sekali tidak seperti burung. Pada akhirnya, apakah maksud teknis benar-benar penting ketika pada akhirnya kita mendapatkan perilaku yang sama? Bisakah kita benar-benar mengatakan bahwa robot seperti Chappie , jika pernah dibuat, tidak merasakan apa-apa seperti termostat sederhana?

Namun, apa yang akan menjadi penggunaan kognisi emosional untuk AI? Pertanyaan ini masih dalam perdebatan besar, tetapi saya akan berani menawarkan wawasan saya sendiri:

  1. Emosi pada manusia (dan hewan!) Diketahui memengaruhi ingatan. Mereka sekarang dikenal dalam ilmu saraf sebagai modalitas tambahan, atau meta-data jika Anda suka, dari memori jangka panjang: mereka memungkinkan untuk memodulasi bagaimana memori disimpan, bagaimana itu terkait / terkait dengan memori lain, dan bagaimana itu akan diambil .

  2. Dengan demikian, kita dapat berhipotesis bahwa peran utama emosi adalah menambahkan meta-informasi tambahan ke dalam ingatan untuk membantu inferensi / pengambilan heuristik. Memang, ingatan kita sangat besar, ada banyak informasi yang kita simpan selama hidup kita, jadi emosi mungkin dapat digunakan sebagai "label" untuk membantu mengambil lebih cepat ingatan yang relevan.

  3. "Label" yang mirip dapat lebih mudah dikaitkan bersama (ingatan peristiwa menakutkan bersama, ingatan peristiwa bahagia bersama, dll.). Dengan demikian, mereka dapat membantu bertahan hidup dengan dengan cepat bereaksi dan menerapkan strategi yang diketahui (melarikan diri!) Dari strategi yang menakutkan, atau memanfaatkan situasi yang menguntungkan (peristiwa bahagia, makan sebanyak yang Anda bisa, akan membantu bertahan hidup di kemudian hari!). Dan sebenarnya, studi neuroscience menemukan bahwa ada jalur khusus untuk rangsangan indera yang merangsang rasa takut, sehingga mereka mencapai aktuator lebih cepat (membuat Anda melarikan diri) daripada dengan melewati seluruh rangkaian sensor somato-sensoris seperti setiap rangsangan lainnya. Jenis pemikiran asosiatif semacam ini juga dapat mengarah pada solusi dan kesimpulan yang tidak dapat dicapai sebaliknya.

  4. Dengan merasakan empati, ini bisa memudahkan interaksi robot / manusia (mis. Drone membantu korban peristiwa bencana).

  5. Model virtual AI dengan emosi dapat berguna untuk ilmu saraf dan penelitian medis dalam gangguan emosional sebagai model komputasi untuk memahami dan / atau menyimpulkan parameter yang mendasarinya (ini sering dilakukan misalnya dengan Alzheimer dan penyakit neurodegeneratif lainnya, tapi saya tidak yakin apakah itu pernah dilakukan untuk gangguan emosional karena mereka cukup baru di DSM).

Jadi ya, AI "dingin" sudah berguna, tetapi AI emosional pasti dapat diterapkan ke area baru yang tidak dapat dieksplorasi dengan menggunakan AI dingin saja. Ini juga akan sangat membantu dalam memahami otak kita sendiri, karena emosi adalah bagian integral.


2

Saya pikir itu tergantung pada aplikasi AI. Jelas jika saya mengembangkan AI yang tujuannya jelas untuk melakukan tugas tertentu di bawah pengawasan manusia, tidak perlu emosi. Tetapi jika tujuan AI adalah untuk melakukan tugas secara mandiri, maka emosi atau empati dapat berguna. Misalnya, pikirkan tentang AI yang bekerja dalam domain medis. Di sini mungkin menguntungkan bagi AI untuk memiliki semacam empati, hanya untuk membuat pasien lebih nyaman. Atau sebagai contoh lain, pikirkan tentang robot yang berfungsi sebagai pengasuh. Sekali lagi jelas bahwa emosi dan empati akan menguntungkan dan diinginkan. Bahkan untuk program bantuan AI (catchword smart home) emosi dan empati dapat diinginkan untuk membuat orang lebih nyaman.

Di sisi lain, jika AI hanya bekerja pada jalur perakitan, jelas tidak perlu untuk emosi dan empati (sebaliknya dalam kasus itu mungkin tidak menguntungkan).


2

AI kuat

Untuk AI yang kuat, jawaban singkatnya adalah meminta bantuan, ketika mereka mungkin bahkan tidak tahu apa yang seharusnya menjadi bantuan.

Itu tergantung pada apa yang akan dilakukan AI. Jika seharusnya menyelesaikan satu tugas mudah dengan sempurna dan profesional, tentu saja emosi tidak akan terlalu berguna. Tetapi jika ia seharusnya mempelajari hal-hal baru secara acak, akan ada titik bahwa ia menemukan sesuatu yang tidak dapat ditangani.

Dalam Lee Sedol vs AlphaGo pertandingan 4, beberapa pro yang mengatakan komputer tidak memiliki emosi sebelumnya, berkomentar bahwa mungkin AlphaGo memiliki emosi juga, dan lebih kuat dari manusia. Dalam hal ini, kita tahu bahwa perilaku gila AlphaGo tidak disebabkan oleh beberapa hal yang sengaja ditambahkan yang disebut "emosi", tetapi cacat dalam algoritme. Tetapi berperilaku persis seperti panik.

Jika ini banyak terjadi pada AI. Mungkin ada keuntungan jika bisa mengetahui hal ini sendiri dan berpikir dua kali jika itu terjadi. Jika AlphaGo dapat mendeteksi masalah dan mengubah strateginya, itu mungkin bermain lebih baik, atau lebih buruk. Tidak mungkin bermain lebih buruk jika tidak melakukan perhitungan untuk pendekatan lain sama sekali. Jika itu akan bermain lebih buruk, kita mungkin mengatakan menderita "emosi", dan ini mungkin alasan beberapa orang berpikir memiliki emosi bisa menjadi cacat manusia. Tapi itu tidak akan menjadi penyebab sebenarnya dari masalah tersebut. Penyebab sebenarnya adalah hanya tidak tahu pendekatan apa pun untuk menjamin kemenangan, dan perubahan dalam strategi hanyalah upaya untuk memperbaiki masalah. Komentator berpikir ada cara yang lebih baik (yang juga tidak menjamin kemenangan tetapi memiliki lebih banyak peluang), tetapi algoritmenya bukan t tidak mampu mencari tahu dalam situasi ini. Bahkan bagi manusia, solusi untuk segala sesuatu yang berhubungan dengan emosi tidak mungkin menghilangkan emosi, tetapi beberapa pelatihan untuk memastikan Anda cukup memahami situasi untuk bertindak dengan tenang.

Maka seseorang harus berdebat tentang apakah ini semacam emosi atau bukan. Kami biasanya tidak mengatakan serangga kecil memiliki emosi seperti manusia, karena kami tidak memahaminya dan tidak mau membantu mereka. Tetapi mudah untuk mengetahui beberapa dari mereka bisa panik dalam situasi putus asa, seperti yang dilakukan AlphaGo. Saya akan mengatakan reaksi-reaksi ini didasarkan pada logika yang sama, dan setidaknya itulah alasan mengapa emosi seperti manusia berpotensi berguna. Mereka tidak diekspresikan dengan cara yang bisa dimengerti manusia, karena mereka tidak berniat memanggil manusia untuk meminta bantuan.

Jika mereka mencoba memahami perilaku mereka sendiri, atau memanggil orang lain untuk meminta bantuan, mungkin lebih baik bersikap seperti manusia. Beberapa hewan peliharaan dapat merasakan emosi manusia dan mengekspresikan emosi yang dapat dimengerti manusia sampai batas tertentu. Tujuannya untuk berinteraksi dengan manusia. Mereka berevolusi untuk memiliki kemampuan ini karena mereka membutuhkannya di beberapa titik. Kemungkinan AI penuh kuat akan membutuhkannya juga. Perhatikan juga, kebalikan dari memiliki emosi penuh mungkin menjadi gila.

Mungkin ini adalah cara cepat untuk kehilangan kepercayaan jika seseorang menerapkan emosi yang meniru manusia dengan sedikit pemahaman pada generasi pertama.

AI yang lemah

Tetapi apakah ada tujuan bagi mereka untuk memiliki emosi sebelum seseorang menginginkan AI yang kuat? Saya akan mengatakan tidak, tidak ada alasan yang melekat bahwa mereka harus memiliki emosi. Tetapi seseorang pasti ingin menerapkan emosi yang ditiru pula. Apakah "kita" membutuhkan mereka untuk memiliki emosi adalah omong kosong.

Faktanya adalah bahkan beberapa program tanpa kecerdasan mengandung beberapa elemen "emosional" di antarmuka pengguna mereka. Mereka mungkin terlihat tidak profesional, tetapi tidak setiap tugas membutuhkan profesional sehingga mereka bisa diterima dengan sempurna. Mereka seperti emosi dalam musik dan seni. Seseorang akan merancang AI mereka yang lemah dengan cara ini juga. Tapi mereka bukan benar-benar emosi AI, tetapi pencipta mereka. Jika Anda merasa lebih baik atau lebih buruk karena emosinya, Anda tidak akan memperlakukan AI individu secara berbeda, tetapi model atau merek ini secara keseluruhan.

Atau seseorang dapat menanam kepribadian seperti dalam permainan permainan peran di sana. Sekali lagi, tidak ada alasan mereka harus memiliki itu, tetapi seseorang pasti akan melakukannya, karena mereka jelas memiliki pasar ketika permainan role-playing melakukannya.

Dalam kedua kasus tersebut, emosi tidak benar-benar berasal dari AI itu sendiri. Dan itu akan mudah diimplementasikan, karena manusia tidak akan berharap mereka persis seperti manusia, tetapi mencoba untuk memahami apa yang dimaksudkannya. Mungkin jauh lebih mudah untuk menerima emosi-emosi ini menyadari hal ini.

Aspek emosi

Maaf tentang memposting beberapa penelitian asli di sini. Saya membuat daftar emosi pada 2012 dan dari sana saya melihat 4 aspek emosi. Jika mereka semua dilaksanakan, saya akan mengatakan mereka persis emosi yang sama seperti manusia. Mereka tidak tampak nyata jika hanya beberapa dari mereka yang diimplementasikan, tetapi itu tidak berarti mereka sepenuhnya salah.

  • Alasannya, atau masalah logis asli yang AI tidak bisa pecahkan. AlphaGo sudah memiliki alasan, tetapi tidak ada yang lain. Jika saya harus membuat definisi yang akurat, saya akan mengatakan itu adalah keadaan bahwa beberapa heuristik yang sama pentingnya tidak saling setuju.
    • Konteksnya, atau bagian mana dari pendekatan saat ini yang dianggap tidak berfungsi dengan baik dan mungkin harus diganti. Ini membedakan yang terkait dengan kesedihan, terkait dengan kekhawatiran, dan terkait dengan gairah.
    • Keadaan saat ini, atau apakah ia merasa memimpin, atau apakah kepercayaannya atau fakta seharusnya berubah menjadi buruk terlebih dahulu (atau sudah buruk selama ini) jika ada yang salah. Ini membedakan kesedihan, cinta dan kebanggaan.
  • Rencana atau permintaan. Saya kira beberapa peliharaan peliharaan sudah memiliki ini. Dan saya kira ini memiliki beberapa pola tetap yang tidak terlalu sulit untuk dimiliki. Bahkan seni dapat menampungnya dengan mudah. Berbeda dengan alasan, ini tidak mungkin melekat pada algoritma apa pun, dan banyak dari mereka dapat muncul bersama.
    • Siapa yang seharusnya memiliki tanggung jawab jika tidak ada yang berubah oleh emosi. Ini membedakan keingintahuan, kemarahan dan kesedihan.
    • Apa rencana yang seharusnya jika tidak ada yang diubah oleh emosi. Ini membedakan kekecewaan, kesedihan dan kejutan.
  • Sumber. Tanpa konteks, bahkan manusia tidak dapat dengan andal memberi tahu seseorang yang menangis karena dipindahkan atau bersyukur, atau tersenyum karena semacam rasa malu. Dalam kebanyakan kasus lain bahkan tidak ada kata yang menggambarkan mereka. Itu tidak membuat banyak perbedaan jika AI tidak membedakan atau menunjukkan ini secara khusus. Kemungkinan mereka akan mempelajari ini secara otomatis (dan tidak akurat sebagai manusia) pada titik mereka dapat belajar untuk memahami bahasa manusia.
  • Pengukuran, seperti seberapa mendesak atau pentingnya masalah itu, atau bahkan seberapa besar kemungkinan emosi itu benar. Saya akan mengatakan itu tidak dapat diimplementasikan dalam AI. Manusia tidak perlu menghargai mereka bahkan jika mereka persis seperti manusia. Tetapi manusia akan belajar bagaimana memahami AI jika itu benar-benar penting, bahkan jika mereka tidak seperti manusia sama sekali. Bahkan, saya merasa bahwa beberapa emosi yang sangat lemah (seperti berpikir ada sesuatu yang terlalu bodoh dan membosankan sehingga Anda tidak tahu bagaimana berkomentar) ada hampir secara eksklusif dalam emotikon, di mana seseorang bermaksud menunjukkan kepada Anda emosi ini dengan tepat, dan hampir tidak nyata dalam kehidupan nyata atau scenerios kompleks. Saya kira ini juga bisa menjadi kasus di awal untuk AI. Dalam kasus terburuk, mereka pertama-tama secara konvensional dikenal sebagai "emosi" karena emotikon bekerja dalam kasus-kasus ini, jadi

Jadi ketika AI yang kuat menjadi mungkin, semua ini tidak akan terjangkau, meskipun mungkin ada banyak pekerjaan untuk membuat koneksi. Jadi saya akan mengatakan jika akan ada kebutuhan untuk AI yang kuat, mereka benar-benar akan memiliki emosi.


2

Dengan emosi dia tidak bermaksud menambahkan segala macam emosi ke dalam AI. Dia hanya memaksudkan orang-orang yang akan membantu untuk mengambil keputusan penting. Pertimbangkan kejadian ini sejenak:
Misalkan mobil self-drive AI mengemudi melalui jalan raya. Orang yang duduk di dalam adalah CEO sebuah perusahaan dan dia berjalan sangat terlambat sesuai jadwal. Jika dia tidak tepat waktu, akan ada kerugian jutaan dolar. AI di dalam mobil telah diperintahkan untuk mengemudi secepat mungkin dan mencapai tujuan. Dan sekarang kelinci (atau binatang lain) masuk ke jalan. Sekarang jika mobil mengerem darurat maka para penumpang akan terluka parah dan ditambah lagi akan kehilangan jutaan karena CEO tidak akan dapat menghadiri rapat.

Sekarang apa yang akan dilakukan AI?
Karena untuk AI, keputusan mereka hanya berdasarkan pada merekafungsi utilitas . Memukul kelinci dan terus berjalan akan menunjukkan opsi yang lebih baik secara logis. Tapi, haruskah AI mengambil keputusan itu.

Ada banyak pertanyaan seperti ini di mana AI mungkin terjebak dalam situasi di mana keputusan berdasarkan moral akan memainkan peran penting.
Skenario di atas hanya untuk contoh sudut pandang.


1

Teori pikiran

Jika kita ingin AI umum yang kuat berfungsi dengan baik di lingkungan yang terdiri dari manusia, maka akan sangat berguna baginya untuk memiliki teori pikiran yang baik yang cocok dengan bagaimana manusia sebenarnya berperilaku. Teori pikiran itu perlu memasukkan emosi seperti manusia, atau itu tidak akan cocok dengan realitas lingkungan ini.

Bagi kami, jalan pintas yang sering digunakan adalah berpikir secara eksplisit "apa yang akan saya lakukan dalam situasi ini?" "Peristiwa apa yang bisa memotivasi saya untuk melakukan apa yang baru saja mereka lakukan?" "Bagaimana perasaan saya jika ini terjadi pada saya ?" Kami ingin AI mampu melakukan penalaran seperti itu, praktis dan bermanfaat, memungkinkan prediksi yang lebih baik tentang masa depan dan tindakan yang lebih efektif.

Meskipun AI akan lebih baik jika tidak didorong oleh emosi-emosi yang tepat (mungkin sesuatu ke arah itu akan berguna tetapi sangat mungkin tidak persis sama), semua itu berubah bahwa alih-alih memikirkan "apa yang akan saya rasakan" ia harus bisa berhipotesis tentang apa yang akan dirasakan manusia pada umumnya. Untuk itu diperlukan penerapan subsistem yang mampu memodelkan emosi manusia secara akurat.


1

Cermat! Sebenarnya ada dua bagian untuk pertanyaan Anda. Jangan mengacaukan makna dalam pertanyaan Anda, jika tidak, Anda tidak akan benar-benar tahu bagian mana yang Anda jawab.

  1. Haruskah kita membiarkan AGI mengalami emosi per "pengalaman kualitatif"? (Dalam arti bahwa Anda merasakan "hati Anda terbakar" ketika Anda jatuh cinta)

Tampaknya tidak ada tujuan yang jelas mengapa kami menginginkan itu. Secara hipotesis kita bisa saja memiliki sesuatu yang secara fungsional tidak dapat dibedakan dari emosi, tetapi tidak memiliki pengalaman kualitatif sehubungan dengan AGI. Tetapi kita tidak berada dalam posisi ilmiah di mana kita bahkan dapat mulai menjawab pertanyaan tentang asal-usul pengalaman kualitatif, jadi saya tidak akan repot-repot membahas lebih dalam pertanyaan ini.

  1. Haruskah kita membiarkan AGI memiliki emosi sesuai kesetaraan fungsionalnya dari pengamat eksternal?

IMHO ya. Meskipun orang dapat membayangkan AI badass tanpa emosi melakukan apa pun yang Anda inginkan, kami berharap AI dapat berintegrasi dengan nilai-nilai dan emosi manusia, yang merupakan masalah penyelarasan. Dengan demikian, akan wajar untuk mengasumsikan bahwa AGI manapun yang memiliki tata cara yang baik akan memiliki sesuatu yang mirip dengan emosi jika telah terintegrasi dengan baik dengan manusia.

TETAPI, tanpa teori pikiran yang jelas, bahkan tidak masuk akal untuk bertanya: "haruskah AGI kita memiliki emosi?" Mungkin ada sesuatu yang kritis tentang emosi kita yang membuat kita menjadi agen kognitif produktif yang juga dibutuhkan AGI.

Memang, emosi sering merupakan aspek yang diabaikan dari kognisi. Orang-orang entah bagaimana berpikir bahwa karakter seperti Spock yang tanpa emosi adalah puncak dari kecerdasan manusia. Tetapi emosi sebenarnya merupakan aspek penting dalam pengambilan keputusan, lihat artikel ini untuk contoh masalah dengan "kecerdasan tanpa emosi".

Pertanyaan selanjutnya adalah "emosi macam apa yang akan dikembangkan AGI?", Tapi sekali lagi kita tidak dalam posisi untuk menjawab itu (belum).


0

Apa tujuan yang akan dilayani dengan mengembangkan AI yang mengalami emosi seperti manusia?

Masalah kompleks yang melibatkan emosi manusia, di mana solusi untuk masalah tersebut membutuhkan kemampuan untuk bersimpati dengan keadaan emosi manusia, akan paling efisien dilayani oleh agen yang dapat bersimpati dengan emosi manusia.

Politik. Pemerintah. Kebijakan dan perencanaan. Kecuali jika benda itu memiliki pengetahuan yang mendalam tentang pengalaman manusia, itu tidak akan mampu memberikan jawaban pasti untuk semua masalah yang kita temui dalam pengalaman manusia kita.


Poin politik dan pemerintahan yang Anda buat adalah contoh yang bagus. Namun, perspektif saya adalah bahwa AI hanya perlu dapat memahami emosi dan belum tentu mengalaminya.
Seth Simba

0

Emosi manusia sangat terkait dengan nilai-nilai kemanusiaan dan kemampuan kita untuk bekerja sama dan membentuk masyarakat.

Sekedar memberi contoh mudah: Anda bertemu orang asing yang membutuhkan bantuan, Anda merasa empati . Ini memaksa Anda untuk membantunya dengan biaya sendiri. Mari kita asumsikan lain kali Anda bertemu dengannya, Anda membutuhkan sesuatu. Anggap saja dia tidak membantu Anda, Anda akan merasa marah . Emosi ini memaksa Anda untuk menghukumnya, dengan biaya lebih lanjut untuk diri sendiri. Sebaliknya, dia, jika dia tidak membantu Anda, merasa malu . Ini memaksa dia untuk benar-benar membantu Anda, menghindari kemarahan Anda dan membuat investasi awal Anda bermanfaat. Anda berdua mendapat manfaat.

Jadi ketiga emosi ini menjaga lingkaran bantuan timbal balik. Empati untuk memulai, kemarahan untuk menghukum pembelot dan rasa malu untuk menghindari kemarahan. Ini juga mengarah pada konsep keadilan.

Mengingat bahwa penyelarasan nilai adalah salah satu masalah besar dalam AGI, emosi seperti manusia mengejutkan saya sebagai pendekatan yang baik terhadap AI yang benar-benar berbagi nilai-nilai kami dan mengintegrasikan diri mereka dengan mulus ke dalam masyarakat kami.


OK poin, tetapi jika Anda akan menjadi ayah Anda akan melihat bahwa emosi hanyalah jalan pintas untuk penjelasan logis mengapa mereka atau tidak berguna. Aturan bisa diturunkan dari emosi dan biologi kita. Dan aturan-aturan itu disimpan dalam bentuk terkompresi dan tidak jelas sebagai emosi dan biologi. Bagi kami itu adalah keharusan, tetapi tidak untuk ai, meskipun bagi kami itu mungkin berfungsi sebagai optimasi untuk AI jika biaya implementasi tersebut dalam bentuk digital akan lebih rendah daripada implementasi berdasarkan aturan. Masalah dengan aturan hanya satu, kita sendiri tidak mengenal mereka sepenuhnya, tetapi tugas AI lebih sempit daripada kita, mungkin tidak membutuhkan banyak aturan
MolbOrg
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.