Seperti biasa dalam beberapa algoritma pembelajaran mesin, Meningkatkan tunduk pada pertukaran Bias-varians mengenai jumlah pohon. Secara longgar, trade-off ini memberi tahu Anda bahwa: (i) model lemah cenderung memiliki bias tinggi dan varians rendah: mereka terlalu kaku untuk menangkap variabilitas dalam set data pelatihan, sehingga tidak akan berkinerja baik di set tes baik (tes tinggi kesalahan) (ii) model yang sangat kuat cenderung memiliki bias rendah dan varians tinggi: mereka terlalu fleksibel dan mereka mengalahkan set pelatihan, sehingga dalam set tes (karena titik data berbeda dari set pelatihan) mereka juga tidak akan berkinerja baik (kesalahan uji tinggi)
Konsep Boosting tree adalah memulai dengan pohon dangkal (model lemah) dan terus menambahkan lebih banyak pohon dangkal yang mencoba untuk memperbaiki kelemahan pohon sebelumnya. Saat Anda melakukan proses ini, kesalahan pengujian cenderung turun (karena model keseluruhan menjadi lebih fleksibel / kuat). Namun, jika Anda menambahkan terlalu banyak dari pohon-pohon itu, Anda mulai overfitting data pelatihan dan karenanya kesalahan pengujian meningkat. Validasi silang membantu menemukan sweet spot