Hal yang Anda baca dikenal sebagai potensi aksi . Ini adalah mekanisme yang mengatur bagaimana informasi mengalir dalam neuron.
Ia bekerja seperti ini: Neuron memiliki potensi listrik, yang merupakan perbedaan tegangan di dalam dan di luar sel. Mereka juga memiliki potensi istirahat default, dan potensi aktivasi. Neuron cenderung bergerak ke arah potensial istirahat jika dibiarkan sendiri, tetapi aktivasi listrik yang masuk dari dendrit dapat menggeser potensi listriknya.
Jika neuron mencapai ambang tertentu dalam potensi listrik (potensi aktivasi), seluruh neuron dan akson penghubungnya melewati reaksi berantai pertukaran ionik di dalam / di luar sel yang menghasilkan "gelombang propagasi" melalui akson.
TL; DR: Setelah neuron mencapai potensi aktivasi tertentu, ia akan terlepas secara elektrik. Tetapi jika potensi listrik neuron tidak mencapai nilai itu maka neuron tidak aktif.
Apakah otak manusia menggunakan fungsi aktivasi tertentu?
Neuron IIRC di berbagai bagian otak berperilaku sedikit berbeda, dan cara pertanyaan ini diutarakan terdengar seolah-olah Anda bertanya apakah ada implementasi spesifik aktivasi neuron (yang bertentangan dengan kami memodelkannya).
Tetapi secara umum berperilaku relatif mirip satu sama lain (Neuron berkomunikasi satu sama lain melalui neurokimia, informasi menyebar di dalam neuron melalui mekanisme yang dikenal sebagai potensial aksi ...) Tetapi detail dan perbedaan yang disebabkannya bisa signifikan.
Ada berbagai model neuron biologis , tetapi Hodgkin-Huxley Model adalah yang paling terkenal.
Juga perhatikan bahwa deskripsi umum neuron tidak memberi Anda gambaran umum dinamika neuron a la kognisi (memahami pohon tidak memberi Anda pemahaman lengkap tentang hutan)
Tetapi, metode penyebaran informasi di dalam neuron secara umum dipahami sebagai pertukaran ionik natrium / kalium.
Ini (potensi aktivasi) sangat mirip dengan ReLU ...
Ini hanya seperti ReLU dalam arti bahwa mereka memerlukan ambang sebelum sesuatu terjadi. Tetapi ReLU dapat memiliki keluaran variabel sementara neuron semuanya atau tidak sama sekali.
Juga ReLU (dan fungsi aktivasi lainnya secara umum) dapat dibedakan sehubungan dengan ruang input. Ini sangat penting untuk backprop.
Ini adalah fungsi ReLU, dengan sumbu X menjadi nilai input dan sumbu Y menjadi nilai output.
Dan ini adalah potensial aksi dengan sumbu X adalah waktu, dan Y adalah nilai output.