Saya mencoba memahami cara kerja XGBoost. Saya sudah mengerti bagaimana gradien meningkatkan kerja pohon di Python sklearn. Yang tidak jelas bagi saya adalah apakah XGBoost bekerja dengan cara yang sama, tetapi lebih cepat, atau jika ada perbedaan mendasar antara itu dan implementasi python.
Ketika saya membaca makalah ini
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Bagi saya sepertinya hasil akhir yang keluar dari XGboost sama dengan dalam implementasi Python, namun perbedaan utama adalah bagaimana XGboost menemukan pemisahan terbaik untuk dibuat di setiap pohon regresi.
Pada dasarnya, XGBoost memberikan hasil yang sama, tetapi lebih cepat.
Apakah ini benar, atau ada hal lain yang saya lewatkan?