Adakah model komputasi neuron cermin?


17

Dari Wikipedia:

Cermin neuron adalah neuron yang terbakar baik ketika hewan bertindak maupun ketika hewan mengamati tindakan yang sama dilakukan oleh orang lain.

Mirror neuron terkait dengan pembelajaran imitasi, fitur yang sangat berguna yang hilang dalam implementasi AI dunia nyata saat ini. Alih-alih belajar dari contoh input-output (supervised learning) atau dari rewards (reinforcement learning), agen dengan mirror neuron akan dapat belajar dengan hanya mengamati agen lain, menerjemahkan gerakan mereka ke sistem koordinatnya sendiri. Apa yang kita miliki tentang masalah ini mengenai model komputasi?

Jawaban:


4

Artikel ini memberikan deskripsi neuron cermin dalam hal pembelajaran bahasa Ibrani, sebuah mekanisme yang telah banyak digunakan dalam AI. Saya tidak tahu apakah formulasi yang diberikan dalam artikel tersebut pernah benar-benar dilaksanakan secara komputasi.


0

Entah "Saya mengambil bola" atau "ia mengambil bola", semua contoh tersimpan dari 'pengambilan' dan 'bola' akan diaktifkan dengan lemah dan 'pengambilan bola' akan sangat diaktifkan. Bukankah ini memenuhi syarat sebagai 'mirroring'? Jika Anda juga tahu bahwa "Saya punya lengan" dan "dia punya lengan", dll., Maka ketika "dia mengambil beberapa balok", tidak terlalu sulit untuk berpikir bahwa "Saya bisa mengambil beberapa balok."


0

Kami benar-benar memiliki banyak hal di sepanjang garis itu, penangkapan gerak untuk film 3-D misalnya muncul dalam pikiran segera. Masalahnya jika saya berpikir tentang itu kurang dari situasi dalam mengamati aktor lain, komputer relativitas baik dalam melakukan itu dengan jumlah perangkat lunak pengenal gambar yang kita miliki, bukan masalah pemahaman jika suatu tindakan menghasilkan hasil yang baik sebagai net yang merupakan sesuatu yang tidak bisa dilakukan komputer karena itu bukan masalah jaringan simpul tunggal. Sebagai contoh, kami telah memprogram komputer untuk memahami bahasa manusia (Watson, bisa dibilang), tetapi bahkan Watson tidak mengerti konsep bahwa mengatakan "omong kosong" itu buruk. (Lihat itu, itu cerita sampingan yang lucu.)

Tetapi intinya adalah, belajar algoritma tidak benar belajar dalam arti sebagai komputer saat ini tidak memiliki rasa "hasil yang baik", maka pada tahap ini pembelajaran pengamatan sangat terbatas dalam arti "monyet lihat, monyet lakukan".

Mungkin hal terdekat yang pernah saya baca tentang hal ini adalah pencarian dan penyelamatan bot pemadam kebakaran yang ada di jaringan dan akan disiarkan satu sama lain ketika salah satu dari mereka telah dihancurkan karena bot akan tahu daerah itu adalah sesuatu yang harus mereka hindari.

Kalau tidak, saya pikir ini adalah masalah dengan pembelajaran observasional. Seseorang dapat mengamati bahwa meninju seseorang biasanya akan membuat Anda terbentur, komputer akan mengamati dan membeo tindakan, baik atau buruk.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.