Saya mulai melihat klien dengan ratusan terabyte data (dalam instalasi SQL Server). Ketika volume total data di beberapa perusahaan mendekati fraksi yang bermakna dari satu petabyte, saya ingin menelusuri basis pengetahuan kolektif di luar sana untuk melihat apa yang dilakukan orang-orang dengan besarnya data yang dilakukan untuk melindunginya.
Masalah yang jelas adalah bahwa menyimpan banyak cadangan data sebanyak itu sangat mahal, menggunakan penyimpanan kelas perusahaan, heck, bahkan hanya RAID-5.
Pilihan yang saya lihat adalah sebagai berikut:
- Membuat salinan cermin dari data di pusat data lain, dan terus mengirimkan perbedaan padanya (menggunakan mekanisme apa pun yang tersedia untuk sumber data Anda - misalnya pengiriman log atau mirroring basis data dengan SQL Server)
- Mengambil cadangan reguler menggunakan algoritma kompresi yang lumayan (mungkin hanya cocok jika data cocok untuk menjadi sangat terkompresi)
- Ambil cadangan sedikit demi sedikit dari bagian penting / perubahan data.
- Jangan membackup data dan percaya pada dewa korupsi.
Saya melihat opsi # 4 diadopsi sebagai default, dan sebagai ahli HA / DR itu benar-benar menakutkan, tetapi apa yang saya sarankan sebagai alternatif? Saya pikir # 1 adalah pendekatan terbaik, tetapi "Saya tidak berpikir begitu" adalah jawaban yang biasa ketika alternatif selain # 4 dan mungkin # 3 disarankan.
Sekarang, tentu saja itu tergantung pada tingkat perubahan dan kekritisan data. Tidak perlu menjawab dengan itu karena saya dulu bertanggung jawab untuk semua fitur HA dari SQL Server sementara saya bekerja di Microsoft jadi saya berpengalaman dalam argumen 'itu tergantung' - itulah frase-frase saya :-)
Saya akan sangat tertarik untuk mendengar alternatif apa pun yang saya lewatkan, atau mendengar bahwa semua orang ada di kapal yang sama dan tidak ada alternatif realistis untuk menghabiskan banyak uang untuk penyimpanan lebih banyak.
Terima kasih sebelumnya - kredit jatuh tempo akan diberikan untuk semua jawaban yang dipikirkan dengan matang dan diungkapkan.