Untuk menempatkan respon @ ziggystar dalam hal jargon pembelajaran mesin: ide di balik teknik agregasi bootstrap (misalnya Hutan Acak) adalah untuk mencocokkan banyak model rendah-bias, varian tinggi ke data dengan beberapa elemen "keacakan" atau "ketidakstabilan." Dalam kasus hutan acak, ketidakstabilan ditambahkan melalui bootstrap dan dengan memilih serangkaian fitur acak untuk membagi setiap simpul pohon. Rata-rata melintasi pohon-pohon yang bising, tetapi bias rendah ini, meringankan varian pohon yang tinggi.
Sementara pohon regresi / klasifikasi adalah model "bias rendah, varian tinggi", model regresi linier biasanya berlawanan - "bias tinggi, varian rendah." Dengan demikian, masalah yang sering dihadapi dengan model linear adalah mengurangi bias, bukan mengurangi varians. Agregasi bootstrap sama sekali tidak dibuat untuk melakukan ini.
Masalah tambahan adalah bahwa bootstrap mungkin tidak memberikan cukup "keacakan" atau "ketidakstabilan" dalam model linier yang khas. Saya berharap pohon regresi menjadi lebih sensitif terhadap keacakan sampel bootstrap, karena setiap daun biasanya hanya memegang beberapa poin data. Selain itu, pohon regresi dapat ditumbuhkan secara stokastik dengan membelah pohon pada subset variabel acak di setiap node. Lihat pertanyaan sebelumnya untuk mengapa ini penting: Mengapa Hutan Acak dibelah berdasarkan fitur m acak?
Semua yang dikatakan, Anda tentu dapat menggunakan bootstrap pada model linier [LINK] , dan ini bisa sangat membantu dalam konteks tertentu. Namun, motivasinya jauh berbeda dari teknik agregasi bootstrap.
a_0 + a_1 * x_1 + ... + a_d * x_d
, fungsi linear rata-rata yang dihasilkan (setelah agregasi bootstrap) masih memiliki bentuk fungsional linier yang sama dengan yang Anda mulai dengan (yaitu 'pelajar dasar').