Pelajar yang 'lemah' (pengklasifikasi, prediktor, dll) hanyalah salah satu yang kinerjanya relatif buruk - akurasinya di atas kebetulan, tetapi nyaris saja. Sering ada, tetapi tidak selalu, implikasi tambahan bahwa itu sederhana secara komputasi. Pelajar yang lemah juga menyarankan bahwa banyak contoh algoritma sedang dikumpulkan (melalui boosting, bagging, dll) bersama-sama untuk membuat classifier ensemble "kuat".
Itu disebutkan dalam makalah AdaBoost asli oleh Freund & Schapire:
Mungkin yang paling mengejutkan dari aplikasi ini adalah derivasi dari aplikasi baru untuk "meningkatkan", yaitu, mengubah algoritma pembelajaran PAC "lemah" yang melakukan hanya sedikit lebih baik daripada menebak secara acak menjadi satu dengan akurasi tinggi yang sewenang-wenang. - (Freund & Schapire, 1995)
tapi saya pikir frasa ini sebenarnya lebih tua dari itu - saya telah melihat orang mengutip makalah (?!) oleh Michael Kearns dari tahun 1980-an.
Contoh klasik dari Weak Learner adalah Decision Stump, pohon keputusan satu tingkat (1R atau OneR adalah pelajar lemah lain yang umum digunakan; itu cukup mirip). Akan agak aneh untuk menyebut SVM sebagai 'pembelajar yang lemah', bahkan dalam situasi di mana kinerjanya buruk, tetapi akan sangat masuk akal untuk menyebut keputusan tunggal yang menusuk pembelajar yang lemah bahkan ketika kinerjanya berjalan dengan baik dengan sendirinya.
Adaboost adalah algoritma iteratif dan biasanya menunjukkan jumlah iterasi atau "putaran". Algoritme dimulai dengan melatih / menguji pelajar yang lemah pada data, menimbang masing-masing contoh secara sama. Contoh-contoh yang salah diklasifikasikan mendapatkan bobotnya meningkat untuk putaran selanjutnya, sedangkan yang diklasifikasikan dengan benar mendapatkan bobotnya berkurang.
T
Saya tidak yakin ada sesuatu yang ajaib tentang . Dalam makalah 1995, diberikan sebagai parameter gratis (yaitu, Anda mengaturnya sendiri).TT= 10T