Untuk meningkatkan algoritma, saya akan mengatakan bahwa mereka berevolusi dengan cukup baik. Pada awal 1995 AdaBoost diperkenalkan, kemudian setelah beberapa waktu itu Gradient Boosting Machine (GBM). Baru-baru ini, sekitar 2015 XGBoost diperkenalkan, yang akurat, menangani overfitting dan telah menjadi pemenang beberapa kompetisi Kaggle. Pada 2017 LightGBM diperkenalkan oleh Microsoft, ia menawarkan waktu pelatihan yang jauh lebih rendah dibandingkan dengan XGBoost. Selain itu, CatBoost diperkenalkan oleh Yandex untuk menangani fitur-fitur kategorikal.
Random Forest diperkenalkan pada awal 2000-an, tetapi apakah ada penerus yang layak untuk itu? Saya pikir jika algoritma bagging yang lebih baik daripada Random Forest ada (yang dapat dengan mudah diterapkan dalam praktek) itu akan mendapatkan perhatian di tempat-tempat seperti Kaggle. Juga, mengapa meningkatkan menjadi teknik ansambel yang lebih populer, apakah karena Anda dapat membuat lebih sedikit pohon untuk prediksi yang optimal?