Saat belajar tentang Peningkatan Gradien, saya belum pernah mendengar tentang kendala mengenai sifat-sifat "classifier lemah" yang digunakan metode untuk membangun dan membuat model ansambel. Namun, saya tidak bisa membayangkan aplikasi GB yang menggunakan regresi linier, dan sebenarnya ketika saya telah melakukan beberapa tes - tidak berhasil. Saya sedang menguji pendekatan yang paling standar dengan gradien jumlah residu kuadrat dan menambahkan model-model berikutnya bersama-sama.
Masalah yang jelas adalah bahwa residu dari model pertama diisi sedemikian rupa sehingga benar-benar tidak ada garis regresi yang cocok lagi. Pengamatan saya yang lain adalah bahwa sejumlah model regresi linier berikutnya dapat direpresentasikan sebagai model regresi tunggal juga (menambahkan semua intersep dan koefisien yang sesuai) jadi saya tidak dapat membayangkan bagaimana hal itu dapat meningkatkan model. Pengamatan terakhir adalah bahwa regresi linier (pendekatan paling umum) menggunakan jumlah residu kuadrat sebagai fungsi kerugian - sama dengan yang digunakan GB.
Saya juga berpikir tentang menurunkan tingkat pembelajaran atau hanya menggunakan subset prediktor untuk setiap iterasi, tapi itu masih bisa diringkas menjadi representasi model tunggal pada akhirnya, jadi saya kira itu tidak akan membawa perbaikan.
Apa yang kulewatkan di sini? Apakah regresi linier entah bagaimana tidak sesuai untuk digunakan dengan Gradient Boosting? Apakah karena regresi linier menggunakan jumlah residu kuadrat sebagai fungsi kerugian? Apakah ada kendala khusus pada prediktor yang lemah sehingga dapat diterapkan pada Peningkatan Gradien?