Kami memiliki struktur folder di intranet kami yang berisi sekitar 800.000 file yang dibagi menjadi sekitar 4.000 folder. Kami perlu menyinkronkan ini ke sekelompok kecil mesin di DMZ kami. Kedalaman struktur sangat dangkal (tidak pernah melebihi dua tingkat dalam).
Sebagian besar file tidak pernah berubah, setiap hari ada beberapa ribu file yang diperbarui dan 1-2 ribu file baru. Data tersebut adalah data pelaporan historis yang dikelola di mana data sumber telah dibersihkan (yaitu ini adalah laporan akhir yang datanya cukup lama yang kami arsipkan dan hapus). Sinkronisasi sekali per hari sudah cukup mengingat hal itu bisa terjadi dalam kerangka waktu yang masuk akal. Laporan dihasilkan dalam semalam, dan kami menyinkronkan hal pertama di pagi hari sebagai tugas yang dijadwalkan.
Tentunya karena sedikit file yang berubah secara teratur, kami dapat mengambil manfaat besar dari salinan tambahan. Kami telah mencoba Rsync, tetapi itu bisa memakan waktu delapan hingga dua belas jam hanya untuk menyelesaikan operasi "membangun daftar file". Sudah jelas bahwa kita dengan cepat melampaui kemampuan rsync (jangka waktu 12 jam terlalu lama).
Kami telah menggunakan alat lain yang disebut RepliWeb untuk menyinkronkan struktur, dan itu dapat melakukan transfer tambahan dalam waktu sekitar 45 menit. Namun sepertinya kami telah melampaui batasnya, ia sudah mulai melihat file muncul sebagai dihapus ketika mereka tidak (mungkin beberapa struktur memori internal telah habis, kami tidak yakin).
Adakah orang lain yang mengalami proyek sinkronisasi skala besar semacam ini? Apakah ada sesuatu yang dirancang untuk menangani struktur file besar seperti ini untuk sinkronisasi?