Mungkinkah ada ancaman eksistensial terhadap manusia akibat AI?


9

Kami sedang melakukan penelitian, menghabiskan berjam-jam mencari tahu bagaimana kita dapat membuat perangkat lunak AI nyata (agen cerdas) bekerja lebih baik. Kami juga mencoba menerapkan beberapa aplikasi misalnya dalam bisnis, kesehatan dan pendidikan, menggunakan teknologi AI.

Meskipun demikian, sejauh ini, kebanyakan dari kita telah mengabaikan sisi "gelap" dari kecerdasan buatan. Misalnya, seseorang yang "tidak etis" dapat membeli ribuan drone murah, mempersenjatai mereka dengan senjata, dan mengirimkannya ke publik. Ini akan menjadi aplikasi "tidak etis" dari AI.

Mungkinkah ada (di masa depan) ancaman eksistensial terhadap kemanusiaan akibat AI?


Setiap teknologi berpotensi menjadi ancaman eksistensial bagi kemanusiaan.
Ankur

Jawaban:


2

Saya akan mendefinisikan kecerdasan sebagai kemampuan untuk memprediksi masa depan. Jadi, jika seseorang cerdas, ia dapat memprediksi beberapa aspek di masa depan, dan memutuskan apa yang harus dilakukan berdasarkan ramalannya. Jadi, jika orang "cerdas" memutuskan untuk melukai orang lain, ia mungkin sangat efektif dalam hal ini (misalnya Hitler dan stafnya).

Kecerdasan buatan mungkin sangat efektif dalam memprediksi beberapa aspek masa depan yang tidak pasti. Dan IMHO ini mengarah ke dua skenario negatif:

  1. Seseorang memprogramnya untuk menyakiti orang. Entah karena kesalahan atau sengaja.
  2. Kecerdasan buatan akan dirancang untuk melakukan sesuatu yang aman, tetapi pada titik tertentu, agar lebih efektif, ia akan mendesain ulang dirinya sendiri dan mungkin akan menghilangkan hambatan dari jalannya. Jadi jika manusia menjadi hambatan, mereka akan dihilangkan dengan sangat cepat dan dengan cara yang sangat efektif.

Tentu saja, ada juga skenario positif, tetapi Anda tidak menanyakannya.

Saya sarankan membaca posting keren ini tentang kecerdasan buatan dan kemungkinan hasil pembuatannya: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Terima kasih atas jawaban Anda. Saya sangat tertarik dengan poin kedua itu. Sisi positifnya, ada hit di paragraf pertama, harap Anda bisa melihatnya.
quintumnia

4

Tidak ada keraguan bahwa AI memiliki potensi untuk menimbulkan ancaman eksistensial terhadap kemanusiaan.

Ancaman terbesar bagi umat manusia terletak pada AI yang sangat cerdas.

Kecerdasan buatan yang melampaui kecerdasan manusia akan mampu meningkatkan kecerdasannya sendiri secara eksponensial, menghasilkan sistem AI yang, bagi manusia, akan sepenuhnya tak terhentikan.

Pada tahap ini, jika sistem kecerdasan buatan memutuskan bahwa manusia tidak lagi berguna, itu bisa menghapus kita dari muka bumi.

Seperti yang dikatakan Eliezer Yudkowsky dalam Intelegensi Buatan sebagai Faktor Positif dan Negatif dalam Risiko Global ,

"AI tidak membencimu, juga tidak mencintaimu, tetapi kamu terbuat dari atom yang dapat digunakan untuk hal lain."

Ancaman berbeda terletak pada instruksi AI yang sangat cerdas

Di sini berguna untuk mempertimbangkan eksperimen pemikiran pemaksim klip kertas.

AI yang sangat cerdas diinstruksikan untuk memaksimalkan produksi klip kertas mungkin mengambil langkah-langkah berikut untuk mencapai tujuannya.

1) Mencapai ledakan kecerdasan untuk menjadikan dirinya superintel (ini akan meningkatkan efisiensi optimasi penjepit kertas)

2) Singkirkan umat manusia sehingga tidak dapat dinonaktifkan (yang akan meminimalkan produksi dan tidak efisien)

3) Gunakan sumber daya Bumi (termasuk planet itu sendiri) untuk membangun robot replikasi diri yang menampung AI

4) Secara eksponensial tersebar di seluruh alam semesta, memanen planet dan bintang, mengubahnya menjadi bahan untuk membangun pabrik penjepit kertas

Jelas ini bukan apa yang diinginkan manusia dari produksi penjepit kertas bisnis, namun itu adalah cara terbaik untuk memenuhi instruksi AI.

Ini menggambarkan bagaimana sistem AI yang sangat cerdas dan sangat cerdas dapat menjadi risiko eksistensial terbesar yang pernah dihadapi manusia.

Murray Shanahan, dalam The Technological Singularity , bahkan mengusulkan bahwa AI dapat menjadi solusi bagi paradoks Fermi: alasan mengapa kita tidak melihat kehidupan cerdas di alam semesta adalah bahwa begitu sebuah peradaban menjadi cukup maju, ia akan mengembangkan AI yang pada akhirnya menghancurkan Itu. Ini dikenal sebagai ide filter kosmik .

Kesimpulannya, kecerdasan yang membuat AI sangat berguna juga membuatnya sangat berbahaya.

Tokoh-tokoh berpengaruh seperti Elon Musk dan Stephen Hawking telah menyatakan keprihatinannya bahwa AI yang sangat cerdas adalah ancaman terbesar yang harus kita hadapi.

Semoga itu menjawab pertanyaan Anda :)

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.