Tidak ada keraguan bahwa AI memiliki potensi untuk menimbulkan ancaman eksistensial terhadap kemanusiaan.
Ancaman terbesar bagi umat manusia terletak pada AI yang sangat cerdas.
Kecerdasan buatan yang melampaui kecerdasan manusia akan mampu meningkatkan kecerdasannya sendiri secara eksponensial, menghasilkan sistem AI yang, bagi manusia, akan sepenuhnya tak terhentikan.
Pada tahap ini, jika sistem kecerdasan buatan memutuskan bahwa manusia tidak lagi berguna, itu bisa menghapus kita dari muka bumi.
Seperti yang dikatakan Eliezer Yudkowsky dalam Intelegensi Buatan sebagai Faktor Positif dan Negatif dalam Risiko Global ,
"AI tidak membencimu, juga tidak mencintaimu, tetapi kamu terbuat dari atom yang dapat digunakan untuk hal lain."
Ancaman berbeda terletak pada instruksi AI yang sangat cerdas
Di sini berguna untuk mempertimbangkan eksperimen pemikiran pemaksim klip kertas.
AI yang sangat cerdas diinstruksikan untuk memaksimalkan produksi klip kertas mungkin mengambil langkah-langkah berikut untuk mencapai tujuannya.
1) Mencapai ledakan kecerdasan untuk menjadikan dirinya superintel (ini akan meningkatkan efisiensi optimasi penjepit kertas)
2) Singkirkan umat manusia sehingga tidak dapat dinonaktifkan (yang akan meminimalkan produksi dan tidak efisien)
3) Gunakan sumber daya Bumi (termasuk planet itu sendiri) untuk membangun robot replikasi diri yang menampung AI
4) Secara eksponensial tersebar di seluruh alam semesta, memanen planet dan bintang, mengubahnya menjadi bahan untuk membangun pabrik penjepit kertas
Jelas ini bukan apa yang diinginkan manusia dari produksi penjepit kertas bisnis, namun itu adalah cara terbaik untuk memenuhi instruksi AI.
Ini menggambarkan bagaimana sistem AI yang sangat cerdas dan sangat cerdas dapat menjadi risiko eksistensial terbesar yang pernah dihadapi manusia.
Murray Shanahan, dalam The Technological Singularity , bahkan mengusulkan bahwa AI dapat menjadi solusi bagi paradoks Fermi: alasan mengapa kita tidak melihat kehidupan cerdas di alam semesta adalah bahwa begitu sebuah peradaban menjadi cukup maju, ia akan mengembangkan AI yang pada akhirnya menghancurkan Itu. Ini dikenal sebagai ide filter kosmik .
Kesimpulannya, kecerdasan yang membuat AI sangat berguna juga membuatnya sangat berbahaya.
Tokoh-tokoh berpengaruh seperti Elon Musk dan Stephen Hawking telah menyatakan keprihatinannya bahwa AI yang sangat cerdas adalah ancaman terbesar yang harus kita hadapi.
Semoga itu menjawab pertanyaan Anda :)