Saya tahu bahwa R tidak terlalu membantu untuk menganalisis dataset besar mengingat R memuat semua data dalam memori sedangkan sesuatu seperti SAS melakukan analisis sekuensial. Yang mengatakan, ada paket seperti bigmemory yang memungkinkan pengguna untuk melakukan analisis data besar (analisis statistik) lebih efisien di R.
Saya ingin tahu, terlepas dari semua informasi teoretis, apakah ada yang menggunakan / menggunakan R untuk menganalisis kumpulan data besar di lingkungan perusahaan dan apa masalah khas yang bisa muncul. Dengan dataset besar saya mengacu pada dataset yang berukuran ~ 200 GB. Juga, setiap pemikiran tentang contoh kehidupan nyata dari migrasi dari SAS ke R dalam kasus penggunaan seperti itu akan sangat membantu.
ff
dan bigmemory
. @ Glen_b, apakah menurut Anda R baru (dengan mesin 64 bit) akan bersaing dengan SAS (dalam hal ukuran set data yang mungkin)?