Ketika meminta dukungan Gitlab tentang cara melakukan pencadangan 3TB pada Gitlab lokal, mereka membalas menggunakan alat kami yang menghasilkan tarball.
Ini hanya keliru bagi saya di semua tingkatan. Tarbal ini berisi dump postgres, gambar buruh pelabuhan, data repo, GIT LFS, dll konfigurasi dan sebagainya. Mencadangkan TB data statis bersama-sama dengan KB data yang sangat dinamis tidak benar. Dan kemudian muncul masalah, kami ingin melakukan backup setiap jam.
Pertanyaan
Saya benar-benar ingin tahu dari orang lain bagaimana mereka melakukannya, untuk mendapatkan cadangan yang konsisten.
ZFS di Linux akan baik-baik saja dengan saya, jika itu adalah bagian dari solusi.
If your GitLab server contains a lot of Git repository data you may find the GitLab backup script to be too slow. In this case you can consider using filesystem snapshots as part of your backup strategy.
saya tidak bisa berbicara dari pengalaman. Tapi saya mungkin harus memasukkan sesuatu seperti ini segera ...