Dalam mengulas “ Pemodelan Prediktif Terapan ", penulis menyatakan :
Salah satu kritik yang saya miliki tentang pedagogi pembelajaran statistik (SL) adalah tidak adanya pertimbangan kinerja komputasi dalam evaluasi teknik pemodelan yang berbeda. Dengan penekanannya pada bootstrap dan validasi silang ke model tune / test, SL cukup intensif komputasi. Tambahkan ke bahwa pengambilan sampel ulang yang tertanam dalam teknik seperti mengantongi dan meningkatkan, dan Anda memiliki hantu neraka perhitungan untuk pembelajaran yang diawasi dari kumpulan data besar. Faktanya, batasan memori R memberlakukan batasan yang cukup parah pada ukuran model yang dapat disesuaikan dengan metode berkinerja terbaik seperti hutan acak. Meskipun SL melakukan pekerjaan yang baik dengan mengkalibrasi kinerja model terhadap kumpulan data kecil, tentu menyenangkan untuk memahami kinerja versus biaya komputasi untuk data yang lebih besar.
Apa kendala ingatan R, dan apakah mereka memberlakukan batasan berat pada ukuran model yang dapat disesuaikan dengan metode berkinerja terbaik seperti hutan acak ?