Lihat juga pertanyaan serupa di stats.SE .
Dalam meningkatkan algoritma seperti AdaBoost dan LPBoost diketahui bahwa pelajar "lemah" yang akan digabungkan hanya harus berkinerja lebih baik daripada kesempatan untuk berguna, dari Wikipedia:
Klasifikasi yang digunakannya bisa lemah (yaitu, menampilkan tingkat kesalahan yang besar), tetapi selama kinerjanya tidak acak (menghasilkan tingkat kesalahan 0,5 untuk klasifikasi biner), mereka akan meningkatkan model akhir. Bahkan pengklasifikasi dengan tingkat kesalahan lebih tinggi dari yang diharapkan dari pengelompokan acak akan berguna, karena mereka akan memiliki koefisien negatif dalam kombinasi linear akhir dari pengklasifikasi dan karenanya berperilaku seperti invers mereka.
Apa manfaat menggunakan yang lemah dibandingkan dengan pelajar yang kuat? (mis. mengapa tidak meningkatkan dengan metode pembelajaran "kuat" - apakah kita lebih rentan terhadap overfitting?)
Apakah ada semacam kekuatan "optimal" untuk pelajar yang lemah? Dan apakah ini terkait dengan jumlah peserta didik dalam ansambel?
Apakah ada teori untuk mendukung jawaban atas pertanyaan-pertanyaan ini?