Seperti yang saya pahami, jaringan saraf yang dalam melakukan "representasi pembelajaran" dengan meletakkan fitur bersama. Ini memungkinkan mempelajari struktur dimensi yang sangat tinggi dalam fitur-fiturnya. Tentu saja, ini adalah model parametrik dengan jumlah parameter yang tetap, sehingga memiliki keterbatasan yang biasa sehingga kompleksitas model mungkin sulit disetel.
Apakah ada cara Bayesian (nonparametrik) untuk mempelajari struktur seperti itu di ruang fitur, yang memungkinkan kompleksitas model untuk beradaptasi dengan data? Model terkait meliputi:
- Dirichlet memproses model campuran, yang memungkinkan seseorang untuk mempartisi ruang menjadi kelompok tanpa batas, memungkinkan data untuk memilih angka yang terbatas
- model faktorial seperti Indian Buffet Process (IBP), yang menemukan potensi fitur laten (alias topik) yang tak terbatas yang menjelaskan data.
Namun sepertinya IBP tidak belajar representasi mendalam. Ada juga masalah bahwa metode ini dirancang untuk pembelajaran tanpa pengawasan dan biasanya kami menggunakan pembelajaran mendalam untuk tugas-tugas yang diawasi. Apakah ada varian IBP atau metode lain yang memungkinkan representasi tumbuh sesuai permintaan data?