Saya mendengarkan ceramah panel yang terdiri dari dua ilmuwan Cina berpengaruh: Wang Gang dan Yu Kai dan yang lainnya.
Ketika ditanya tentang hambatan terbesar pengembangan kecerdasan buatan dalam waktu dekat (3 hingga 5 tahun), Yu Kai, yang memiliki latar belakang di industri perangkat keras, mengatakan bahwa perangkat keras akan menjadi masalah penting dan kita harus membayar sebagian besar perhatian kami untuk itu. Dia memberi kami dua contoh:
- Dalam pengembangan awal komputer, kami membandingkan mesin kami dengan chip-nya;
- Kecerdasan buatan yang sangat populer tahun ini hampir tidak mungkin jika tidak diberdayakan oleh GPU Nvidia.
Algoritma fundamental sudah ada pada 1980-an dan 1990-an, tetapi kecerdasan buatan melewati 3 musim dingin AI dan tidak empiris sampai kita dapat melatih model dengan server mega yang didukung GPU.
Kemudian Dr. Wang mengomentari pendapatnya bahwa kita juga harus mengembangkan sistem perangkat lunak karena kita tidak dapat membangun mobil otomatis bahkan jika kita telah menggabungkan semua GPU dan perhitungan di dunia secara bersamaan.
Kemudian, seperti biasa, pikiran saya melayang dan saya mulai berpikir bahwa bagaimana jika mereka yang dapat mengoperasikan superkomputer pada 1980-an dan 1990-an memanfaatkan algoritma jaringan saraf yang ada dan melatih mereka dengan banyak data ilmiah? Beberapa orang pada waktu itu jelas dapat mencoba membangun sistem AI yang sedang kita bangun sekarang. Tetapi mengapa AI menjadi topik hangat dan menjadi empiris sampai beberapa dekade kemudian? Apakah ini hanya masalah perangkat keras, perangkat lunak, dan data?