Dalam meningkatkan, pengklasifikasi lemah atau tidak stabil digunakan sebagai pembelajar dasar. Ini terjadi karena tujuannya adalah untuk menghasilkan batas keputusan yang sangat berbeda. Kemudian, dasar yang baik pelajar adalah salah satu yang sangat bias, dengan kata lain, output tetap pada dasarnya sama bahkan ketika parameter pelatihan untuk peserta didik dasar berubah sedikit.
Dalam jaringan saraf, putus sekolah adalah teknik regularisasi yang dapat dibandingkan dengan pelatihan ansambel. Perbedaannya adalah bahwa ensembel dilakukan dalam ruang laten (neuron ada atau tidak) sehingga mengurangi kesalahan generalisasi.
"Setiap contoh pelatihan sehingga dapat dilihat sebagai memberikan gradien untuk, arsitektur secara acak sampel yang berbeda, sehingga jaringan saraf akhir efisien merupakan ensemble besar jaringan saraf, dengan kemampuan yang baik generalisasi" - mengutip dari sini .
Ada dua teknik seperti: di neuron putus sekolah dijatuhkan (yang berarti neuron eksis atau tidak dengan probabilitas tertentu) sementara di dropconnect bobot dijatuhkan.
Sekarang, untuk menjawab pertanyaan Anda, saya percaya bahwa jaringan saraf (atau perceptrons) tidak digunakan sebagai pelajar dasar dalam pengaturan peningkatan karena mereka lebih lambat untuk melatih (hanya membutuhkan waktu terlalu banyak) dan peserta didik tidak lemah, walaupun mereka bisa setup menjadi lebih tidak stabil. Jadi, itu tidak layak usaha.
Mungkin ada penelitian tentang topik ini, namun sangat disayangkan bahwa ide yang tidak berfungsi dengan baik biasanya tidak berhasil dipublikasikan. Kami membutuhkan lebih banyak penelitian yang mencakup jalur yang tidak mengarah ke mana pun, alias "jangan repot-repot mencoba ini".
EDIT:
Saya punya sedikit lebih banyak tentang ini dan jika Anda tertarik pada ansambel jaringan besar, maka Anda mungkin merujuk pada metode menggabungkan output dari beberapa jaringan tersebut. Kebanyakan orang rata-rata atau menggunakan pemungutan suara mayoritas tergantung pada tugas - ini mungkin tidak optimal. Saya percaya seharusnya bisa mengubah bobot untuk setiap output jaringan sesuai dengan kesalahan pada catatan tertentu. Semakin sedikit hasil yang dikorelasikan, semakin baik aturan grup Anda.