Dalam Bab 26 buku Inteligensi Buatan: Pendekatan Modern (edisi ke-3), buku teks ini membahas "singularitas teknologi". Itu mengutip IJ Good, yang menulis pada tahun 1965:
Biarkan mesin ultra-cerdas didefinisikan sebagai mesin yang dapat jauh melampaui semua kegiatan intelektual siapa pun yang cerdas. Karena desain mesin adalah salah satu dari aktivitas intelektual ini, mesin ultra-cerdas dapat merancang mesin yang lebih baik; maka tidak diragukan lagi akan ada "ledakan kecerdasan," dan kecerdasan manusia akan tertinggal jauh. Jadi, mesin ultra-cerdas pertama adalah penemuan terakhir yang perlu dibuat manusia, asalkan mesin itu cukup jinak untuk memberi tahu kita bagaimana mengendalikannya.
Kemudian di buku pelajaran, Anda memiliki pertanyaan ini:
26.7 - IJ Good mengklaim bahwa kecerdasan adalah kualitas yang paling penting, dan bahwa membangun mesin yang sangat cerdas akan mengubah segalanya. Cheetah yang hidup menjawab bahwa "Sebenarnya kecepatan lebih penting; jika kita dapat membangun mesin ultrafast, itu akan mengubah segalanya" dan seekor gajah yang hidup mengklaim "Anda berdua salah; yang kita butuhkan adalah mesin ultrastrong," Apa pendapat Anda tentang ini argumen?
Tampaknya pertanyaan buku teks adalah argumen implisit terhadap IJ Good. Baik mungkin memperlakukan kecerdasan sebagai sesuatu yang berharga, hanya karena kekuatan manusia terletak pada sifat yang disebut "kecerdasan". Tetapi sifat-sifat lain dapat sama-sama dihargai sebagai gantinya (kecepatan atau kekuatan) dan makhluk hidup dapat berspekulasi liar tentang sifat-sifat yang mereka sukai yang "dimaksimalkan" oleh beberapa mesin atau lainnya.
Ini membuat saya bertanya-tanya apakah singularitas dapat terjadi jika kita telah membangun mesin yang tidak memaksimalkan kecerdasan, tetapi sebaliknya memaksimalkan beberapa sifat lain (mesin yang selalu meningkatkan kekuatannya, atau mesin yang selalu meningkatkan kecepatannya). Jenis mesin ini bisa sama transformatif - mesin ultrafast dapat menyelesaikan masalah dengan cepat karena "kekuatan kasar", dan mesin ultrastrong dapat menggunakan daya mentahnya untuk berbagai tugas fisik. Mungkin mesin ultra-X tidak dapat membangun mesin ultra-X lainnya (seperti IJ Good memperlakukan desain mesin sebagai aktivitas intelektual), tetapi mesin yang terus memperbaiki diri masih akan meninggalkan pembuatnya jauh di belakang dan memaksa pembuatnya untuk menjadi tergantung padanya.
Apakah singularitas teknologi terbatas pada kecerdasan ultra? Atau singularitas teknologi disebabkan oleh mesin yang bukan "AI kuat" tetapi masih merupakan "pengoptimalan" ultra?