Jadi ketika melihat Radial Basis Function Neural Networks, saya perhatikan bahwa orang hanya pernah merekomendasikan penggunaan 1 layer tersembunyi, sedangkan dengan multilayer perceptron neural networks lebih banyak layer dianggap lebih baik.
Mengingat bahwa jaringan RBF dapat dilatih dengan versi back propagation apakah ada alasan mengapa jaringan RBF yang lebih dalam tidak akan berfungsi, atau bahwa lapisan RBF tidak dapat digunakan sebagai lapisan kedua dari belakang atau pertama dalam jaringan MLP yang mendalam? (Saya sedang memikirkan lapisan kedua dari belakang sehingga pada dasarnya bisa dilatih tentang fitur yang dipelajari oleh lapisan MLP sebelumnya)