Apakah ada pertukaran antara fleksibilitas dan efisiensi?


8

"Kecerdasan umum" mungkin dapat mempelajari banyak hal yang berbeda, tetapi memiliki kemampuan tidak sama dengan memilikinya. "AGI" harus belajar ... dan proses belajar itu bisa memakan waktu. Jika Anda ingin AGI mengendarai mobil atau bermain Go, Anda harus menemukan cara untuk "mengajar" itu. Ingatlah bahwa kami belum pernah membangun AGI, jadi kami tidak tahu berapa lama proses pelatihannya, tetapi akan lebih aman untuk mengasumsikan perkiraan pesimistis.

Bandingkan itu dengan "kecerdasan sempit". AI sempit sudah tahu cara mengendarai mobil atau bermain Go. Telah diprogram untuk menjadi sangat baik pada satu tugas tertentu. Anda tidak perlu khawatir tentang melatih mesin, karena sudah dipra-terlatih.

"Kecerdasan umum" tampaknya lebih fleksibel daripada "kecerdasan sempit". Anda bisa membeli AGI dan memilikinya mengendarai mobil dan bermain Go. Dan jika Anda bersedia melakukan lebih banyak pelatihan, Anda bahkan bisa mengajarkannya trik baru: cara membuat kue . Saya tidak perlu khawatir tentang tugas-tugas tak terduga yang akan datang, karena AGI akhirnya akan mencari tahu bagaimana melakukannya, mengingat waktu pelatihan yang cukup. Saya harus menunggu lama .

"Kecerdasan sempit" tampaknya lebih efisien dalam tugas yang diberikan, karena diprogram khusus untuk tugas itu. Ia tahu persis apa yang harus dilakukan, dan tidak perlu membuang waktu untuk "belajar" (tidak seperti teman AGI kami di sini). Alih-alih membeli satu AGI untuk menangani banyak tugas yang berbeda dengan buruk, saya lebih suka membeli banyak AI sempit khusus. AI Sempit # 1 mengendarai mobil, Sempit AI # 2 memainkan Go, Sempit AI # 3 membuat kue, dll untuk menanganinya. Saya bersedia menerima risiko itu.

Apakah "pemikiran" saya benar? Apakah ada trade-off antara fleksibilitas (AGI) dan efisiensi (AI sempit), seperti apa yang baru saja saya jelaskan di atas? Atau mungkinkah secara teoritis AGI fleksibel dan efisien?


1
Ini tidak hanya terbatas pada "AGI" vs. "kuat sempit". Ada strategi yang dikenal sebagai " memuaskan " di mana "cukup baik" adalah yang terbaik yang dapat Anda capai b / c keputusan optimal yang obyektif tidak dapat dicapai. Ketika waktu keputusan dibatasi, pada model yang dapat dipecahkan atau diselesaikan sebagian, heuristik sederhana dapat mengungguli pembelajaran yang mendalam.
DukeZhou

Jawaban:


5

Hasil terbersih yang kami miliki tentang masalah ini adalah teorema "tidak makan siang gratis" . Pada dasarnya, untuk membuat sistem berkinerja lebih baik pada tugas tertentu, Anda harus menurunkan kinerjanya pada tugas lain, sehingga ada tradeoff fleksibilitas-efisiensi.

Tetapi untuk pertanyaan yang lebih luas, atau apakah pemikiran Anda benar atau tidak, saya pikir perlu melihat lebih dekat apa yang Anda maksudkan dengan "kecerdasan sempit". Sistem AI yang kami miliki yang memainkan Go and drive cars tidak muncul dapat melakukan hal-hal itu; mereka perlahan-lahan belajar bagaimana melalui banyak dan banyak contoh pelatihan dan arsitektur yang dipilih dengan baik yang mencerminkan domain masalah.

Artinya, "jaringan saraf" sebagai metodologi tampaknya 'umum' dengan cara yang bermakna; orang bisa membayangkan bahwa kecerdasan umum dapat dibentuk dengan memecahkan masalah meta-learning (yaitu, mempelajari arsitektur yang paling sesuai dengan masalah tertentu sambil mempelajari bobot untuk masalah itu dari data pelatihan).

Bahkan dalam kasus itu, masih akan ada tradeoff fleksibilitas-efisiensi; kecerdasan umum yang dapat memvariasikan arsitekturnya akan dapat memecahkan banyak masalah yang berbeda, tetapi akan membutuhkan waktu untuk menemukan masalah apa yang dihadapinya. Kecerdasan yang dikunci ke dalam arsitektur tertentu akan berkinerja baik pada masalah yang cocok untuk arsitektur (lebih baik daripada yang umum, karena tidak perlu ditemukan) tetapi kurang baik pada masalah lain yang tidak cocok untuk itu.


1
Teorema 'No Free Lunch' (NFL) umumnya dibingkai dalam hal sistem kotak hitam. Dengan menggunakan deskripsi whitebox dari masalah yang harus dipecahkan dan / atau metakognisi tentang proses solusi, dimungkinkan untuk menghindari NFL. Lihat juga jawaban saya untuk pertanyaan ini ai.stackexchange.com/questions/1751/what-are-hyper-heuristics
NietzscheanAI

5

Seperti yang dijelaskan oleh Matthew Graves dalam jawaban lain. Teorema makan siang gratis menegaskan fleksibilitas - trade-off efisiensi. Namun, teorema ini menggambarkan situasi di mana Anda memiliki serangkaian tugas yang sepenuhnya independen. Ini sering tidak berlaku, karena banyak masalah yang berbeda setara di intinya atau setidaknya memiliki beberapa tumpang tindih. Kemudian Anda dapat melakukan sesuatu yang disebut "transfer belajar", yang berarti bahwa dengan melatih untuk menyelesaikan satu tugas Anda juga belajar sesuatu tentang menyelesaikan yang lain (atau mungkin beberapa tugas yang berbeda).

Misalnya dalam Distilasi Kebijakan oleh Rusu et al. mereka berhasil "menyaring" pengetahuan dari jaringan pakar yang berbeda menjadi satu jaringan umum yang pada akhirnya mengungguli masing-masing pakar. Para ahli dilatih untuk tugas-tugas khusus sementara generalis mempelajari kebijakan akhir dari "guru" ini.


1

Akan muncul begitu. Salah satu contoh, meskipun tidak secara khusus terkait AI, terlihat dalam perbedaan antara komputer digital dan komputer analog . Hampir semua yang kita anggap sebagai "komputer" saat ini adalah komputer digital dengan arsitektur von Neumann. Dan itu karena hal-hal tersebut adalah tujuan umum sehingga mereka dapat dengan mudah diprogram untuk melakukan, pada dasarnya, apa saja. Tetapi komputer analog dapat (atau bisa, kembali pada tahun 60-an atau sekitar itu) memecahkan beberapa jenis masalah lebih cepat dari komputer digital. Tetapi mereka tidak disukai persis karena kurangnya fleksibilitas. Tidak ada yang mau menggunakan sirkuit dengan op-amp dan komparator untuk dipecahkan untuk y .

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.