Segala sesuatu yang terkait dengan Deep Learning (DL) dan jaringan deep (er) tampaknya "berhasil", setidaknya berkembang sangat cepat, dan menumbuhkan keyakinan bahwa AGI berada dalam jangkauan. Ini adalah imajinasi populer. DL adalah alat luar biasa untuk mengatasi begitu banyak masalah, termasuk pembuatan AGI. Tapi itu tidak cukup. Alat adalah bahan yang diperlukan, tetapi seringkali tidak mencukupi.
Tokoh terkemuka dalam domain mencari tempat lain untuk membuat kemajuan. Ini laporan / mengklaim mengumpulkan link ke pernyataan Yoshua Bengio , Yann LeCun dan Geoff Hinton . Laporan itu juga menjelaskan:
Kelemahan utama DL (seperti yang saya lihat) adalah: ketergantungan pada neuron model yang paling sederhana ("kartun" seperti LeCun menyebutnya); penggunaan ide dari Mekanika Statistik dan Statistik abad ke-19, yang merupakan dasar fungsi energi dan metode log-likelihood; dan kombinasi dari ini dalam teknik-teknik seperti backprop dan stochastic gradient descent, yang mengarah ke rezim aplikasi yang sangat terbatas (offline, sebagian besar batch, pembelajaran yang diawasi), membutuhkan praktisi yang sangat berbakat (alias "Stochastic Graduate Descent"), sejumlah besar mahal berlabel data pelatihan dan kekuatan komputasi. Walaupun bagus untuk perusahaan besar yang dapat memikat atau membeli bakat dan menggunakan sumber daya tak terbatas untuk mengumpulkan data dan mengolahnya, DL tidak mudah diakses atau berguna bagi sebagian besar dari kita.
Meskipun menarik dan relevan, penjelasan semacam itu tidak benar-benar menjawab inti masalahnya: Apa yang kurang?
Pertanyaan itu tampaknya luas, tetapi mungkin karena kurangnya jawaban yang sederhana. Apakah ada cara untuk menunjukkan dengan tepat apa yang kurang dari DL untuk AGI?