Satuan maxout dapat mempelajari fungsi cembung linear sesegera mungkin dengan potongan hingga k. 1
Jadi ketika k adalah 2, Anda dapat mengimplementasikan ReLU, ReLU absolut, ReLU bocor, dll., Atau dapat belajar menerapkan fungsi baru. Jika k katakanlah 10, Anda bahkan dapat mempelajari fungsi cembung.
Ketika k adalah 2:
maks ( wT1x + b1, wT2x + b2)w1, b1= 0
Namun, tidak seperti neuron ReLU, ia menggandakan jumlah parameter untuk setiap neuron tunggal, yang mengarah ke jumlah parameter yang tinggi. 2
Anda dapat membaca detailnya di sini:
1. Buku DL
2. http://cs231n.github.io/neural-networks-1