Itu mungkin efek samping
Setiap agen yang berorientasi pada tujuan mungkin, dengan baik, hanya melakukan hal-hal yang mencapai tujuannya sambil mengabaikan efek samping yang tidak penting untuk tujuan-tujuan ini.
Jika tujuan saya mencakup ruang tamu yang rapi, saya dapat mengubah halaman saya menjadi halaman rumput atau trotoar yang bagus sambil menghapus ekosistem kehidupan yang kompleks yang ada di sana sebelumnya, karena saya tidak peduli dengan hal itu.
Jika tujuan dari AI yang kuat tertentu kebetulan termasuk melakukan sesuatu dalam skala besar, dan entah bagaimana tidak terlalu peduli dengan ekosistem yang kompleks saat ini, maka ekosistem itu mungkin terhapus dalam proses. Tidak perlu ingin atau perlu memusnahkan kita. Jika kita sama sekali tidak relevan dengan tujuannya, maka kita terbuat dari bahan dan menempati ruang yang mungkin ingin digunakan untuk hal lain.
Kami adalah ancaman bagi sebagian besar tujuan
Agen berorientasi tujuan apa pun mungkin ingin memastikan bahwa mereka dapat memenuhi tujuan mereka. Setiap pintar agen akan mencoba untuk mengantisipasi tindakan agen lain yang dapat mencegah mereka dari mencapai tujuan mereka, dan mengambil langkah-langkah untuk memastikan bahwa mereka berhasil pula. Dalam banyak kasus lebih mudah untuk menghilangkan agen-agen lain daripada memastikan bahwa upaya mereka gagal.
Misalnya, tujuan saya mungkin termasuk menyimpan sekantong gula di rumah pedesaan sehingga saya dapat membuat pancake ketika berkunjung tanpa membawa semua bahan setiap saat. Namun, jika saya meninggalkannya di sana, kemungkinan dimakan oleh tikus selama musim dingin. Saya dapat mengambil semua jenis tindakan pencegahan untuk menyimpannya dengan lebih baik, tetapi tikus itu cerdas dan licik, dan jelas ada peluang nontrivial bahwa mereka masih akan berhasil mencapai tujuan mereka , jadi tindakan pencegahan ekstra yang efektif adalah membunuh tikus sebelum mereka mendapatkan kesempatan untuk mencoba.
Jika tujuan AI kuat tertentu adalah untuk melakukan X; mungkin sampai pada pemahaman bahwa (sebagian?) manusia mungkin sebenarnya tidak menginginkan X tetapi Y sebagai gantinya. Dapat juga dengan mudah menyimpulkan bahwa beberapa dari manusia itu mungkin secara aktif melakukan hal-hal yang mencegah X dan / atau mencoba mematikan AI. Melakukan hal-hal yang memastikan bahwa tujuan tercapai adalah apa yang dilakukan oleh agen pencari tujuan; dalam hal ini jika keberadaan manusia tidak sepenuhnya diperlukan untuk tujuan X, maka menghilangkannya menjadi strategi pengurangan risiko yang solid. Ini tidak sepenuhnya diperlukan dan mungkin perlu semua jenis tindakan pencegahan lainnya, tetapi seperti dalam contoh saya tentang tikus, manusia cerdas dan licik dan jelas ada peluang nontrivial bahwa mereka masih akan berhasil mencapai mereka tujuan (agar X tidak terjadi sesuai keinginan AI) sehingga tindakan pencegahan ekstra yang efektif dapat membunuh mereka sebelum mereka mendapatkan kesempatan untuk mencoba.