Kita sering mendengar bahwa kecerdasan buatan dapat membahayakan atau bahkan membunuh manusia, jadi itu mungkin terbukti berbahaya.
Bagaimana kecerdasan buatan dapat membahayakan kita?
Kita sering mendengar bahwa kecerdasan buatan dapat membahayakan atau bahkan membunuh manusia, jadi itu mungkin terbukti berbahaya.
Bagaimana kecerdasan buatan dapat membahayakan kita?
Jawaban:
Ada banyak berlaku alasan mengapa orang mungkin takut (atau lebih baik khawatir tentang ) AI, tidak semua melibatkan robot dan skenario apokaliptik.
Untuk menggambarkan masalah ini dengan lebih baik, saya akan mencoba membaginya menjadi tiga kategori.
Ini adalah jenis AI yang dirujuk oleh pertanyaan Anda. AI sadar super-cerdas yang akan menghancurkan / memperbudak manusia. Ini sebagian besar dibawa kepada kita oleh fiksi ilmiah. Beberapa contoh terkenal Hollywood adalah "The terminator" , "The Matrix" , "Age of Ultron" . Novel yang paling berpengaruh ditulis oleh Isaac Asimov dan disebut sebagai "seri Robot" (yang meliputi "I, robot" , yang juga diadaptasi sebagai film).
Premis dasar di bawah sebagian besar karya-karya ini adalah bahwa AI akan berkembang ke titik di mana ia menjadi sadar dan akan melampaui manusia dalam kecerdasan. Sementara film-film Hollywood terutama berfokus pada robot dan pertempuran antara mereka dan manusia, tidak cukup penekanan diberikan kepada AI yang sebenarnya (yaitu "otak" mengendalikan mereka). Sebagai catatan, karena narasinya, AI ini biasanya digambarkan sebagai superkomputer yang mengendalikan segalanya (sehingga protagonis memiliki target spesifik). Tidak cukup eksplorasi telah dilakukan pada "kecerdasan ambigu" (yang saya pikir lebih realistis).
Di dunia nyata, AI berfokus pada penyelesaian tugas-tugas khusus! Seorang agen AI yang mampu menyelesaikan masalah dari domain yang berbeda (misalnya memahami pembicaraan dan memproses gambar dan mengemudi dan ... - seperti manusia) disebut sebagai Kecerdasan Buatan Umum dan diperlukan untuk AI yang mampu "berpikir" dan menjadi sadar.
Secara realistis, kita jauh dari General Artificial Intelligence! Yang sedang berkata tidak ada bukti mengapa ini tidak dapat dicapai di masa depan. Jadi saat ini, bahkan jika kita masih dalam masa kanak-kanak, kita tidak punya alasan untuk percaya bahwa AI tidak akan berevolusi ke titik di mana ia lebih cerdas daripada manusia.
Meskipun AI yang menaklukkan dunia masih jauh dari terjadi, ada beberapa alasan untuk khawatir dengan AI hari ini , yang tidak melibatkan robot! Kategori kedua yang ingin saya fokuskan sedikit adalah beberapa kegunaan berbahaya dari AI hari ini.
Saya hanya akan fokus pada aplikasi AI yang tersedia hari ini . Beberapa contoh AI yang dapat digunakan untuk maksud jahat:
DeepFake : teknik untuk memaksakan wajah seseorang pada gambar video orang lain. Ini telah mendapatkan popularitas baru-baru ini dengan porno selebriti dan dapat digunakan untuk menghasilkan berita palsu dan tipuan. Sumber: 1 , 2 , 3
Dengan menggunakan sistem pengawasan massal dan perangkat lunak pengenal wajah yang mampu mengenali jutaan wajah per detik , AI dapat digunakan untuk pengawasan massal. Meskipun ketika kita berpikir tentang pengawasan massal, kita berpikir tentang Cina, banyak kota barat seperti London , Atlanta dan Berlin adalah di antara kota -kota yang paling banyak diawasi di dunia . Tiongkok telah mengambil langkah lebih jauh dengan mengadopsi sistem kredit sosial , sistem evaluasi untuk warga sipil yang tampaknya diambil langsung dari halaman George Orwell 1984.
Mempengaruhi orang melalui media sosial . Selain mengenali selera pengguna dengan tujuan pemasaran yang ditargetkan dan menambah penempatan (praktik yang umum dilakukan oleh banyak perusahaan internet), AI dapat digunakan secara sembarangan untuk mempengaruhi pemilihan orang (antara lain). Sumber: 1 , 2 , 3 .
Aplikasi militer, mis. Serangan drone, sistem penargetan rudal.
Kategori ini cukup subyektif, tetapi pengembangan AI mungkin membawa beberapa efek samping yang merugikan. Perbedaan antara kategori ini dan yang sebelumnya adalah bahwa efek ini, meskipun berbahaya, tidak dilakukan dengan sengaja; melainkan terjadi dengan perkembangan AI. Beberapa contoh adalah:
Pekerjaan menjadi mubazir . Ketika AI menjadi lebih baik, banyak pekerjaan akan digantikan oleh AI. Sayangnya tidak banyak hal yang dapat dilakukan mengenai hal ini, karena sebagian besar perkembangan teknologi memiliki efek samping ini (mis. Mesin pertanian menyebabkan banyak petani kehilangan pekerjaan, otomatisasi menggantikan banyak pekerja pabrik, komputer melakukan hal yang sama).
Memperkuat bias dalam data kami . Ini adalah kategori yang sangat menarik, karena AI (dan terutama Neural Networks) hanya sebagus data yang mereka latih dan memiliki kecenderungan melanggengkan dan bahkan meningkatkan berbagai bentuk bias sosial, yang sudah ada dalam data. Ada banyak contoh jaringan yang memperlihatkan perilaku rasis dan seksis. Sumber: 1 , 2 , 3 , 4 .
Apakah saya menyebutkan itu semua ini sudah berjalan lancar?
Meskipun tidak ada garis yang jelas antara AI dan AGI, bagian ini lebih lanjut tentang apa yang terjadi ketika kita melangkah lebih jauh ke arah AGI. Saya melihat dua alternatif:
Dalam kasus pertama, jika AI "menjadi nakal" kita bisa membangun AI lain untuk mengecoh dan menetralkannya. Dalam kasus kedua, kita tidak bisa, dan kita dikutuk. AI akan menjadi bentuk kehidupan baru dan kita mungkin punah.
Inilah beberapa masalah potensial:
Saya pikir AGI akan datang dan kita perlu memperhatikan masalah-masalah ini sehingga kita bisa menguranginya.
Selain jawaban lain, saya ingin menambahkan contoh pabrik kue nuking:
AI pembelajaran mesin pada dasarnya mencoba untuk memenuhi tujuan yang dijelaskan oleh manusia. Misalnya, manusia membuat AI yang menjalankan pabrik kue. Tujuan yang mereka terapkan adalah menjual cookie sebanyak mungkin untuk margin keuntungan tertinggi.
Sekarang, bayangkan AI yang cukup kuat. AI ini akan melihat bahwa jika dia membuat nukes semua pabrik kue lainnya, semua orang harus membeli kue di pabriknya, membuat penjualan meningkat dan keuntungan lebih tinggi.
Jadi, kesalahan manusia di sini adalah tidak memberikan hukuman karena menggunakan kekerasan dalam algoritma. Ini mudah diabaikan karena manusia tidak mengharapkan algoritma untuk sampai pada kesimpulan ini.
Skenario favorit saya untuk kerugian akibat AI tidak melibatkan kecerdasan tinggi, tetapi kecerdasan rendah. Secara khusus, hipotesis goo abu - abu .
Di sinilah proses otomatis mereplikasi diri menjalankan mengamuk dan mengubah semua sumber daya menjadi salinan itu sendiri.
Intinya di sini adalah bahwa AI tidak "pintar" dalam arti memiliki kecerdasan tinggi atau kecerdasan umum - itu hanya sangat baik dalam satu hal dan memiliki kemampuan untuk mereplikasi secara eksponensial.
Saya akan mengatakan ancaman nyata terbesar adalah ketidakseimbangan / pengganggu yang sudah kita lihat. Perubahan menempatkan 90% negara keluar dari pekerjaan adalah nyata, dan hasilnya (yang akan menjadi distribusi kekayaan yang lebih tidak merata) menakutkan jika Anda memikirkannya.
Saya punya contoh yang agak berlawanan dengan ketakutan publik, tetapi merupakan hal yang sangat nyata, yang sudah saya lihat terjadi. Ini bukan AI-spesifik, tapi saya pikir itu akan menjadi lebih buruk melalui AI. Ini adalah masalah manusia mempercayai kesimpulan AI secara membabi buta dalam aplikasi kritis.
Kami memiliki banyak bidang di mana para ahli manusia seharusnya membuat keputusan. Ambil contoh obat - haruskah kita memberikan obat X atau obat Y? Situasi yang saya pikirkan sering merupakan masalah yang kompleks (dalam pengertian Cynefin) di mana itu adalah hal yang sangat baik untuk meminta seseorang memperhatikan dengan sangat cermat dan menggunakan banyak keahlian, dan hasilnya benar-benar penting.
Ada permintaan untuk informatika medis untuk menulis sistem pendukung keputusan untuk masalah semacam ini di kedokteran (dan saya kira untuk jenis yang sama di domain lain). Mereka melakukan yang terbaik, tetapi harapannya selalu bahwa seorang ahli manusia akan selalu mempertimbangkan saran sistem hanya sebagai satu pendapat lagi ketika membuat keputusan. Dalam banyak kasus, tidak bertanggung jawab untuk menjanjikan hal lain, mengingat tingkat pengetahuan dan sumber daya yang tersedia untuk pengembang. Contoh tipikal adalah penggunaan penglihatan komputer dalam radiomik: seorang pasien mendapatkan CT scan dan AI harus memproses gambar dan memutuskan apakah pasien memiliki tumor.
Tentu saja AI itu tidak sempurna. Bahkan ketika diukur terhadap standar emas, tidak pernah mencapai akurasi 100%. Dan kemudian ada semua kasus di mana ia berkinerja baik terhadap metrik golnya sendiri, tetapi masalahnya sangat kompleks sehingga metrik gol tidak menangkapnya dengan baik - saya tidak bisa memikirkan contoh dalam konteks CT, tapi saya kira kita melihatnya bahkan di sini di SE, di mana algoritma mendukung popularitas di posting, yang merupakan proksi tidak sempurna untuk kebenaran faktual.
Anda mungkin membaca paragraf terakhir dan mengangguk, "Ya, saya belajar bahwa dalam kursus ML pengantar pertama saya ambil". Tebak apa? Dokter tidak pernah mengambil kursus ML pengantar. Mereka jarang memiliki cukup melek statistik untuk memahami kesimpulan makalah yang muncul di jurnal medis. Ketika mereka berbicara dengan pasien ke-27 mereka, 7 jam dalam 16 jam kerja mereka, lapar dan terkuras secara emosional, dan CT tidak terlihat jelas, tetapi komputer mengatakan "itu bukan keganasan", mereka tidak luangkan sepuluh menit lagi untuk lebih berkonsentrasi pada gambar, atau mencari buku teks, atau berkonsultasi dengan kolega. Mereka hanya mengikuti apa yang dikatakan komputer, bersyukur bahwa beban kognitif mereka tidak meroket lagi. Jadi mereka beralih dari menjadi ahli menjadi orang yang membaca sesuatu dari layar. Lebih buruk, di beberapa rumah sakit pemerintah tidak hanya mempercayai komputer, ia juga telah menemukan bahwa mereka adalah kambing hitam yang nyaman. Jadi, seorang dokter memiliki firasat buruk yang bertentangan dengan output komputer, menjadi sulit bagi mereka untuk bertindak berdasarkan firasat itu dan membela diri bahwa mereka memilih untuk mengesampingkan pendapat AI.
AI adalah alat yang kuat dan berguna, tetapi akan selalu ada tugas di mana mereka tidak dapat mengganti toolwielder.
Ini hanya bermaksud menjadi pelengkap jawaban lain jadi saya tidak akan membahas kemungkinan AI yang mencoba memperbudak manusia.
Tetapi risiko yang berbeda sudah ada di sini. Saya akan menyebutnya teknologi tanpa perintah . Saya telah diajarkan ilmu pengetahuan dan teknologi, dan IMHO, AI memiliki dengan sendirinya tidak memiliki gagasan tentang yang baik dan yang jahat, atau kebebasan. Tetapi itu dibangun dan digunakan oleh manusia dan karena itu perilaku non-rasional dapat dilibatkan.
Saya akan mulai dengan contoh kehidupan nyata yang lebih terkait dengan IT umum daripada AI. Saya akan berbicara tentang virus atau malwares lainnya. Komputer adalah mesin yang agak bodoh yang bagus untuk memproses data dengan cepat. Jadi kebanyakan orang mengandalkan mereka. Beberapa orang (jahat) mengembangkan malware yang akan mengganggu perilaku komputer yang benar. Dan kita semua tahu bahwa mereka dapat memiliki efek buruk pada organisasi kecil hingga menengah yang tidak siap dengan komputer.
AI berbasis komputer sehingga rentan terhadap serangan tipe komputer. Di sini contoh saya akan menjadi mobil yang digerakkan AI. Teknologi ini hampir siap untuk bekerja. Tapi bayangkan efek malware membuat mobil berusaha menyerang orang lain di jalan. Bahkan tanpa akses langsung ke kode AI, dapat diserang oleh saluran samping . Misalnya menggunakan kamera untuk membaca tanda-tanda sinyal. Tetapi karena cara pembelajaran mesin diimplementasikan, AI umumnya tidak menganalisis adegan seperti halnya manusia. Para peneliti telah menunjukkan bahwa ada kemungkinan untuk mengubah tanda dengan cara yang manusia normal masih akan melihat tanda aslinya, tetapi AI akan melihat yang berbeda. Bayangkan sekarang bahwa tanda itu adalah tanda prioritas jalan ...
Maksud saya adalah bahwa bahkan jika AI tidak memiliki niat jahat, orang jahat dapat mencoba membuatnya berperilaku buruk. Dan untuk tindakan yang lebih penting akan didelegasikan ke AI (obat-obatan, mobil, pesawat, tidak berbicara tentang bom) semakin tinggi risikonya. Mengatakan berbeda, saya tidak benar-benar takut AI untuk dirinya sendiri, tetapi untuk cara itu dapat digunakan oleh manusia.
Saya pikir salah satu risiko yang paling nyata (mis. Terkait dengan AI yang ada saat ini) secara buta bergantung pada AI yang tidak diawasi, karena dua alasan.
Kesalahan fisik dalam sistem AI dapat mulai menghasilkan hasil yang sangat salah di wilayah yang tidak diuji karena sistem fisik mulai memberikan nilai yang salah. Ini kadang-kadang ditebus dengan swa-uji dan redundansi, tetapi sesekali masih membutuhkan pengawasan manusia.
AI belajar mandiri juga memiliki kelemahan perangkat lunak - jaringan bobot atau representasi statistik mereka mungkin mendekati minimum lokal di mana mereka terjebak dengan satu hasil yang salah.
Untungnya ini sering dibahas, tetapi perlu disebutkan: klasifikasi input sistem AI sering bias karena dataset pelatihan / pengujian juga bias. Ini menghasilkan AI yang tidak mengenali orang dari etnis tertentu, untuk contoh yang lebih jelas. Namun ada beberapa kasus yang kurang jelas yang hanya dapat ditemukan setelah beberapa kecelakaan buruk, seperti AI tidak mengenali data tertentu dan secara tidak sengaja menyalakan api di sebuah pabrik, merusak peralatan atau melukai orang.
Jika robot mirip dengan antarmuka mesin manusia, perangkatnya sama seperti mobil yang dikendalikan dari jarak jauh. Dimungkinkan untuk berdiskusi dengan operator di belakang joystick dan bernegosiasi tentang perilaku angan. Robot yang dikendalikan dari jarak jauh adalah penemuan yang aman karena tindakan mereka dapat ditelusuri kembali ke manusia dan motivasi mereka dapat diantisipasi. Mereka dapat digunakan untuk meningkatkan kehidupan sehari-hari, dan itu lucu untuk bermain dengan mereka.
Sebaliknya, beberapa robot tidak dikendalikan oleh joystick tetapi bekerja dengan generator dadu internal. Mainan dadu diketahui dari peran sosialnya dalam perjudian tetapi juga memiliki makna mistis. Biasanya, generator acak sangat terkait dengan perilaku kacau yang dikendalikan oleh kekuatan gelap di luar pengaruh manusia. Dadu elektronik yang dibangun menjadi robot dan ditingkatkan dengan algoritma pembelajaran adalah kebalikan dari antarmuka mesin manusia, tetapi berpotensi menimbulkan masalah karena robot yang dikendalikan secara acak akan bermain game dengan manusia yang tidak dapat diantisipasi. Tidak mungkin untuk memprediksi jumlah dadu berikutnya, oleh karena itu robot juga akan berperilaku tiba-tiba.
Hubungan antara game yang dikendalikan secara acak dan dampak sosial negatif dijelaskan dalam kalimat berikut.
kutipan: “Di banyak masyarakat tradisional non-Barat, para penjudi dapat berdoa untuk para dewa agar berhasil dan menjelaskan kemenangan dan kekalahan dalam hal kehendak ilahi. "Binde, Per. "Perjudian dan agama: Sejarah kerusuhan dan konflik." Jurnal Masalah Perjudian 20 (2007): 145-165.
Manusia saat ini ada di ceruk ekologi-ekonomi "hal yang berpikir".
AI juga merupakan hal yang dipikirkan, sehingga akan menyerang ceruk ekologis-ekonomi kita. Baik dalam ekologi maupun ekonomi, memiliki sesuatu yang lain menempati ceruk Anda bukanlah rencana yang bagus untuk kelangsungan hidup.
Bagaimana tepatnya kelangsungan hidup manusia dikompromikan dengan ini akan menjadi sangat kacau. Akan ada banyak cara yang masuk akal bahwa AI dapat membahayakan kelangsungan hidup manusia sebagai suatu spesies, atau bahkan sebagai bentuk kehidupan yang dominan.
Misalkan ada AI yang kuat tanpa "etika super" yang lebih murah untuk diproduksi daripada manusia (termasuk membuat "tubuh" atau cara memanipulasi dunia), dan sama pintar atau pintarnya daripada manusia.
Ini adalah kasus di mana kita mulai bersaing dengan AI untuk sumber daya. Ini akan terjadi pada skala ekonomi mikro (apakah kita mempekerjakan manusia, atau membeli / membangun / menyewakan / menyewa AI untuk menyelesaikan masalah ini?). Tergantung pada tingkat di mana AI menjadi murah dan / atau lebih pintar daripada orang, ini bisa terjadi secara perlahan (mungkin suatu industri pada suatu waktu) atau sangat cepat.
Dalam kompetisi kapitalis, mereka yang tidak pindah ke AI yang lebih murah akhirnya kalah bersaing.
Sekarang, dalam jangka pendek, jika keunggulan AI hanya marjinal, tingginya biaya pendidikan manusia selama 20 tahun sebelum mereka menjadi produktif bisa membuat proses ini lebih lambat. Dalam hal ini, mungkin layak membayar seorang Dokter di atas upah kelaparan untuk mendiagnosis penyakit daripada AI, tetapi mungkin tidak layak melunasi pinjaman mahasiswa mereka. Jadi Dokter manusia baru akan dengan cepat berhenti dilatih, dan Dokter yang ada akan dimiskinkan. Kemudian lebih dari 20-30 tahun AI sepenuhnya menggantikan Dokter untuk tujuan diagnostik.
Jika keunggulan AI besar, maka itu akan cepat. Dokter bahkan tidak akan layak membayar upah tingkat kemiskinan untuk melakukan diagnosa manusia. Anda dapat melihat hal seperti itu terjadi pada pertanian berbasis otot ketika pertanian berbasis bensin mengambil alih.
Selama revolusi industri yang lalu, fakta bahwa manusia yang mampu berpikir berarti bahwa Anda dapat menggunakan kembali pekerja manusia yang surplus untuk melakukan tindakan lain; jalur manufaktur, pekerjaan ekonomi layanan, pemrograman komputer, dll. Tetapi dalam model ini, AI lebih murah untuk melatih dan membangun dan lebih pintar atau lebih pintar daripada manusia di pekerjaan semacam itu.
Sebagaimana dibuktikan oleh musim semi Arab yang diinduksi etanol, tanaman dan lahan pertanian dapat digunakan untuk bahan bakar baik mesin maupun manusia. Ketika mesin lebih efisien dalam hal mengubah lahan pertanian menjadi pekerjaan yang bermanfaat, Anda akan mulai melihat harga makanan naik. Ini biasanya mengarah pada kerusuhan, karena orang-orang benar-benar tidak suka kelaparan sampai mati dan bersedia mengambil risiko hidup mereka sendiri untuk menggulingkan pemerintah untuk mencegah hal ini.
Anda dapat menenangkan orang-orang dengan menyediakan makanan bersubsidi dan sejenisnya. Selama ini tidak melumpuhkan secara ekonomi (yaitu, jika cukup mahal, itu bisa menyebabkan Anda kalah bersaing dengan tempat lain yang tidak melakukan ini), ini hanya tidak stabil secara politis.
Sebagai alternatif, dalam jangka pendek, kasta kepemilikan yang menerima keuntungan dari ekonomi yang dikelola AI yang semakin efisien dapat membayar polisi atau kasta militer untuk menghentikan kerusuhan tersebut. Ini mensyaratkan bahwa kasta polisi / militer menjadi kelas hidup menengah ke bawah untuk memastikan kesetiaan yang berkelanjutan - Anda tidak ingin mereka bergabung dengan para perusuh.
Jadi salah satu pusat keuntungan yang dapat Anda gunakan untuk AI adalah militer dan kepolisian yang berbasis AI. Drone yang memberikan persenjataan yang mematikan dan tidak mematikan yang didasarkan pada pemrosesan umpan visual dan data lainnya dapat mengurangi jumlah polisi / militer kelas menengah yang diperlukan untuk menurunkan kerusuhan yang dipicu harga makanan atau ketidakstabilan lainnya. Seperti yang telah kita asumsikan mengatakan AI dapat memiliki tubuh dan pelatihan yang lebih murah daripada manusia biologis, ini juga dapat meningkatkan jumlah kekuatan yang dapat Anda gunakan per dolar yang dihabiskan.
Pada titik ini, kita berbicara tentang sebagian besar polisi yang menjalankan AI dan militer yang digunakan untuk membuat manusia kelaparan dari menggulingkan ekonomi yang dikelola AI dan mengambil alat-alat produksi dari penggunaan yang lebih efisien yang saat ini digunakan.
Manusia asli yang "memiliki" sistem di atas membuat keputusan rasional secara lokal untuk mengoptimalkan kekayaan dan kekuasaan mereka. Mereka mungkin atau mungkin tidak bertahan lama; selama mereka menguras sumber daya yang relatif sedikit dan tidak mengacaukan ekonomi yang dikelola AI, tidak akan ada banyak tekanan seleksi untuk menyingkirkannya. Di sisi lain, karena mereka tidak berkontribusi apa pun yang bernilai, posisi mereka "di puncak" secara politis tidak stabil.
Proses ini diasumsikan sebagai AI umum yang "kuat". AI yang lebih sempit dapat melakukan ini dalam potongan-potongan. Komputer diagnostik yang murah dan efektif dapat mengurangi sebagian besar dokter menjadi miskin dalam waktu yang sangat singkat, misalnya. Mobil mengemudi sendiri dapat menelan 5% -10% dari ekonomi. Teknologi informasi sudah menelan sektor ritel dengan AI sederhana.
Dikatakan bahwa setiap kemajuan teknologi mengarah pada pekerjaan yang lebih banyak dan lebih baik bagi manusia. Dan ini benar selama 300 tahun terakhir.
Tetapi sebelum tahun 1900, memang benar bahwa setiap kemajuan teknologi menghasilkan pekerjaan yang lebih banyak dan lebih baik untuk kuda. Kemudian ICE dan mobil tiba, dan sekarang ada jauh lebih sedikit kuda yang bekerja; kuda yang tersisa pada dasarnya setara dengan pelayan pribadi manusia: dipelihara untuk kebaruan "wow, cool, horse" dan kesenangan mengendarai dan mengendalikan binatang besar.
Selain banyak jawaban yang telah disediakan, saya akan memunculkan masalah contoh permusuhan di bidang model gambar.
Contoh permusuhan adalah gambar yang telah diganggu dengan kebisingan yang dirancang khusus yang sering tidak terlihat oleh pengamat manusia, tetapi sangat mengubah prediksi model.
Contohnya termasuk:
Mempengaruhi diagnosis yang diperkirakan dalam rontgen dada
Mempengaruhi deteksi tanda-tanda jalan yang diperlukan untuk kendaraan otonom.
AI yang digunakan untuk memecahkan masalah dunia nyata dapat menimbulkan risiko bagi kemanusiaan dan tidak benar-benar membutuhkan perasaan, ini juga membutuhkan tingkat kebodohan manusia juga ..
Tidak seperti manusia, AI akan menemukan jawaban yang paling logis tanpa kendala emosi, etika, atau bahkan keserakahan ... Hanya logika. Tanyakan kepada AI ini bagaimana menyelesaikan masalah yang diciptakan manusia (misalnya, Perubahan Iklim) dan solusinya mungkin dengan menghilangkan keseluruhan ras manusia untuk melindungi planet ini. Jelas ini akan membutuhkan memberikan AI kemampuan untuk bertindak atas hasilnya yang membawa saya ke titik saya sebelumnya, kebodohan manusia.
Kecerdasan buatan dapat membahayakan kita dengan cara apa pun dari kecerdasan alami (manusia). Perbedaan antara kecerdasan alami dan buatan akan hilang ketika manusia mulai menambah diri mereka secara lebih intim. Kecerdasan mungkin tidak lagi mencirikan identitas dan akan menjadi milik tanpa batas. Kerugian yang ditimbulkan akan sebanyak yang bisa ditanggung manusia untuk mempertahankan identitas diri mereka yang terus berkembang.
Hanya sedikit orang yang menyadari bahwa ekonomi global kita harus dianggap sebagai AI: - Transaksi uang adalah sinyal melalui jaringan syaraf. Node dalam jaringan syaraf adalah perusahaan yang berbeda atau orang pribadi yang membayar atau menerima uang. - Itu buatan manusia sehingga memenuhi syarat sebagai buatan
Jaringan saraf ini lebih baik dalam tugasnya daripada manusia: Kapitalisme selalu menang melawan ekonomi yang direncanakan oleh manusia (plan-ekonomi).
Apakah jaring saraf ini berbahaya? Mungkin berbeda jika Anda adalah CEO berpenghasilan besar versus seorang nelayan di sungai yang tercemar oleh limbah perusahaan.
Bagaimana AI ini menjadi berbahaya? Anda bisa menjawabnya adalah karena keserakahan manusia. Ciptaan kita mencerminkan diri kita sendiri. Dengan kata lain: kita tidak melatih jaringan saraf kita untuk berperilaku baik. Alih-alih melatih jaringan saraf untuk meningkatkan kualitas hidup bagi semua manusia, kami melatihnya untuk membuat orang kaya menjadi lebih kaya.
Apakah mudah untuk melatih AI ini agar tidak lagi berbahaya? Mungkin tidak, mungkin beberapa AI hanya lebih besar dari kehidupan. Itu hanya survival of the fittest.