Pertanyaan ini dibahas dalam postingan yang sangat bagus ini. Silakan lihat dan referensi di dalamnya. http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
Perhatikan di artikel bahwa berbicara tentang kalibrasi, dan tautan ke posting blog (bagus) lainnya. Namun, saya menemukan bahwa makalah yang Memperoleh Probabilitas yang Dikalibrasi dari Peningkatan memberi Anda pemahaman yang lebih baik tentang kalibrasi apa dalam konteks penggolong yang ditingkatkan, dan apa metode standar untuk melakukannya.
Dan akhirnya satu aspek hilang (sedikit lebih teoretis). Baik RF maupun GBM adalah metode ensemble, artinya Anda membuat classifier dari sejumlah besar classifier yang lebih kecil. Sekarang perbedaan mendasar terletak pada metode yang digunakan:
- RF menggunakan pohon keputusan, yang sangat rentan terhadap overfitting. Untuk mencapai akurasi yang lebih tinggi, RF memutuskan untuk membuat sejumlah besar dari mereka berdasarkan bagging . Ide dasarnya adalah untuk menguji ulang data berulang-ulang dan untuk setiap sampel melatih classifier baru. Klasifikasi yang berbeda menyesuaikan data dengan cara yang berbeda, dan melalui pemungutan suara, perbedaan tersebut dirata-ratakan.
- GBM adalah metode peningkatan, yang dibangun di atas pengklasifikasi lemah . Idenya adalah untuk menambahkan classifier pada suatu waktu, sehingga classifier berikutnya dilatih untuk meningkatkan ansambel yang sudah terlatih. Perhatikan bahwa untuk RF setiap iterasi classifier dilatih secara independen dari yang lain.