Sejauh yang saya tahu, tidak ada yang mencoba ini, karena cara jaringan terstruktur. Setiap input memiliki satu set bobot, yang terhubung ke lebih banyak input. Jika input beralih, output juga akan .
Namun, Anda dapat membangun jaringan yang mendekati perilaku ini. Di set pelatihan Anda, gunakan pembelajaran batch dan untuk setiap sampel pelatihan, berikan semua permutasi yang mungkin ke jaringan sehingga itu belajar untuk menjadi permutasi invarian. Ini tidak akan pernah persis invarian, mungkin saja dekat .
Cara lain untuk melakukan ini adalah memiliki bobot yang direplikasi untuk semua input. Sebagai contoh, anggaplah Anda memiliki 3 input (i0, i1, i2), dan lapisan tersembunyi berikutnya memiliki 2 node (hl0, hl1) dan fungsi aktivasi F. Dengan asumsi layer yang terhubung penuh, Anda memiliki 2 bobot w0 dan w1. Node layer tersembunyi hl0 dan hl1 diberikan, masing-masing, oleh
Dengan demikian memberi Anda lapisan tersembunyi yang nilainya invarian permutasi dari input. Mulai sekarang, Anda dapat mempelajari dan membangun sisa jaringan sesuai keinginan Anda. Ini adalah pendekatan yang berasal dari lapisan konvolusional.
Di luar topik, ini sepertinya proyek yang keren. Jika Anda ingin bekerja sama dalam beberapa proyek penelitian, hubungi saya (periksa profil saya)