Saya akan menjawab pertanyaan ini dalam beberapa bagian:
Mengapa sistem AGI perlu memiliki akal sehat?
Manusia di alam liar dan berkomunikasi menggunakan akal sehat lebih dari yang mereka lakukan dengan logika yang ketat, Anda dapat melihat ini dengan mencatat bahwa lebih mudah untuk menarik emosi seseorang daripada logika. Jadi setiap sistem yang berupaya mereplikasi kognisi manusia (seperti dalam AGI) juga harus meniru kecenderungan ini untuk menggunakan akal sehat.
Secara lebih sederhana, kami berharap bahwa sistem AGI kami dapat berbicara kepada kami dalam bahasa akal sehat hanya karena itulah yang paling kami pahami (kalau tidak, kami tidak akan mengerti AGI kami yang ramah kan?). Teori yang tidak masuk akal dan logika yang ketat mungkin secara teknis benar, tetapi tidak menarik bagi pemahaman kita.
Bukankah tujuan AGI adalah menciptakan sistem yang paling maju secara kognitif? Mengapa sistem AGI "paling sempurna" perlu menangani ketidaksempurnaan dan ketidaktepatan seperti itu masuk akal?
Pertama, itu mungkin hanya muncul sebagai kasus bahwa logika akal sehat adalah "irasional". Mungkin ada cara matematika yang konsisten untuk memodelkan akal sehat sedemikian rupa sehingga semua seluk-beluk akal sehat diwakili dalam cara yang keras.
Kedua, studi awal Intelegensi Buatan dimulai dalam studi ilmu kognitif, di mana para peneliti mencoba mereplikasi "algoritma pikiran", atau lebih tepatnya: prosedur yang dapat ditentukan yang mereplikasi pemikiran manusia. Sampai sejauh itu, studi AI bukan untuk menciptakan "agen kognitif paling tinggi" tetapi untuk hanya meniru pemikiran / perilaku manusia. Begitu kita bisa meniru perilaku manusia, kita mungkin bisa mencoba menciptakan sesuatu yang super-manusia dengan memberinya lebih banyak daya komputasi, tetapi itu tidak dijamin.
Saya masih tidak melihat mengapa akal sehat diperlukan dalam sistem AGI. Bukankah AGI tentang menjadi sistem komputasi yang paling cerdas dan kuat? Mengapa harus peduli atau menyesuaikan diri dengan batas-batas pemahaman manusia, yang membutuhkan akal sehat?
Mungkin kemudian Anda memiliki sedikit pemahaman yang tidak selaras tentang apa yang diperlukan AGI. AGI tidak berarti kekuatan komputasi yang tidak terikat (secara fisik tidak mungkin karena kendala fisik pada perhitungan seperti batas Bremermann ) atau kecerdasan tidak terikat (mungkin secara fisik tidak mungkin karena kendala sebelumnya). Biasanya hanya berarti "kecerdasan umum" buatan, makna umum luas dan umum.
Pertimbangan tentang agen tidak terikat dipelajari secara lebih rinci dalam bidang-bidang seperti ilmu komputer teoretis (teori tipe I percaya), teori keputusan, dan bahkan mungkin teori set, di mana kami dapat mengajukan pertanyaan tentang agen dengan kekuatan komputasi yang tidak terikat. Kita dapat mengatakan bahwa ada pertanyaan bahkan sistem AGI dengan kekuatan tak terbatas tidak dapat menjawab karena Masalah Pemutusan , tetapi hanya jika asumsi pada bidang tersebut memetakan ke struktur AGI yang diberikan, yang mungkin tidak benar.
Untuk pemahaman yang lebih baik tentang apa yang mungkin diperlukan AGI dan tujuannya, saya dapat merekomendasikan dua buku: Inteligensi Buatan: Ide yang Sangat oleh John Haugeland untuk pendekatan yang lebih pragmatis (sama pragmatisnya dengan filosofi AI, dan Tentang Asal Usul Objek oleh Brian Cantwell Smith untuk pendekatan yang lebih cenderung filosofis.
Selain itu, koleksi Zen koan's: The Gateless Gate, termasuk bagian berikut ini: (dikutip dan diedit dari wikipedia )
Seorang bhikkhu bertanya kepada Zhaozhou, seorang guru Zen China, "Apakah anjing memiliki sifat Buddha atau tidak?" Zhaozhou menjawab, "Wo"
Wú (無) diterjemahkan menjadi "tidak ada", "nonesuch", atau "tidak ada", yang dapat diartikan untuk menghindari menjawab ya atau tidak. Orang yang tercerahkan ini tidak berusaha menjawab dengan ketat setiap pertanyaan, tetapi hanya merespons dengan cara yang masuk akal. Tidak masalah apakah anjing tersebut memiliki sifat-Buddha atau tidak (apa pun sifat-Buddha itu), sehingga sang guru default untuk membebaskan pertanyaan daripada menyelesaikannya.