Efek AI terjadi ketika penonton mengabaikan perilaku program kecerdasan buatan dengan menyatakan bahwa itu bukan kecerdasan nyata.
Pamela McCorduck menulis: "Itu adalah bagian dari sejarah bidang kecerdasan buatan yang setiap kali seseorang menemukan cara membuat komputer melakukan sesuatu — memainkan permainan catur yang bagus, memecahkan masalah yang sederhana namun relatif informal — ada banyak kritikus yang mengatakan, ' itu tidak berpikir '. "[1] Peneliti AI Rodney Brooks mengeluh," Setiap kali kita menemukan bagiannya, itu berhenti menjadi ajaib; kita berkata,' Oh, itu hanya perhitungan. '"[2]
Halaman Wikipedia kemudian mengusulkan beberapa alasan berbeda yang bisa menjelaskan mengapa penonton mungkin "mendiskon" program AI. Namun, alasan itu tampaknya menyiratkan bahwa manusia membuat kesalahan dalam "mendiskontokan" perilaku program AI ... dan bahwa program AI ini mungkin sebenarnya cerdas. Saya ingin membuat argumen alternatif, di mana manusia membuat kesalahan, tetapi tidak dalam "mengabaikan" perilaku program AI.
Pertimbangkan situasi berikut. Saya ingin membangun sebuah mesin yang dapat melakukan X (di mana X adalah beberapa sifat, seperti kecerdasan). Saya dapat mengevaluasi secara intuitif apakah mesin memiliki kriteria X itu. Tapi aku tidak memiliki definisi yang baik dari apa yang sebenarnya X adalah . Yang bisa saya lakukan adalah mengidentifikasi apakah sesuatu memiliki X atau tidak.
Namun, saya berpikir bahwa orang yang memiliki X dapat melakukan Y. Jadi jika saya membangun mesin yang dapat melakukan Y, maka tentu saja, saya membangun sebuah mesin yang memiliki X.
Setelah membangun mesin yang dapat melakukan Y, saya memeriksanya untuk melihat apakah mesin saya memiliki X. Dan tidak. Jadi mesin saya kekurangan X. Dan sementara mesin yang bisa melakukan Y itu keren, yang saya inginkan adalah mesin yang punya X. Saya kembali ke papan gambar dan memikirkan ide baru untuk mencapai X.
Setelah menulis di papan tulis selama beberapa jam, saya menyadari bahwa orang yang memiliki X dapat melakukan Z. Tentu saja! Saya mencoba membangun mesin baru yang dapat melakukan Z, ya, jika itu bisa melakukan Z, maka itu harus memiliki X.
Setelah membangun mesin yang dapat melakukan Z, saya memeriksa untuk melihat apakah ia memiliki X. Tidak. Jadi saya kembali ke papan gambar, dan siklus berulang dan berulang ...
Pada dasarnya, manusia berusaha untuk menentukan apakah suatu entitas memiliki kecerdasan melalui pengukuran proksi, tetapi pengukuran proksi tersebut berpotensi rusak (karena dimungkinkan untuk memenuhi pengukuran proksi tersebut tanpa pernah benar-benar memiliki intelijen). Sampai kita tahu bagaimana mendefinisikan kecerdasan dan merancang tes yang dapat mengukurnya secara akurat, sangat tidak mungkin bagi kita untuk membangun mesin yang memiliki kecerdasan. Jadi Efek AI terjadi karena manusia tidak tahu bagaimana mendefinisikan "kecerdasan", bukan karena orang menolak program sebagai tidak "cerdas".
Apakah argumen ini valid atau benar? Dan jika tidak, mengapa tidak?