Bagging adalah generasi dari beberapa prediktor yang berfungsi sebagai peramal sebagai satu prediktor tunggal. Dropout adalah teknik yang mengajarkan ke jaringan saraf untuk rata-rata semua subnetwork yang mungkin. Melihat kompetisi Kaggle yang paling penting, tampaknya kedua teknik ini sering digunakan bersama. Saya tidak bisa melihat perbedaan teoretis selain implementasi yang sebenarnya. Siapa yang bisa menjelaskan kepada saya mengapa kita harus menggunakan keduanya dalam aplikasi nyata? dan mengapa kinerja meningkat ketika kami menggunakan keduanya?