Ada banyak cara untuk menangani data sebesar itu. Banyak hal tergantung pada lingkungan Anda dan berapa banyak uang yang bersedia Anda keluarkan. Secara umum ada beberapa strategi 'ambil data dari server' secara keseluruhan:
- Melalui Ethernet Seperti yang tertulis di kotak, data dialirkan ke Some Where Else untuk penanganan. 20TB akan membutuhkan waktu lama untuk menyalin lebih dari 1GbE, tetapi itu bisa dilakukan. Perangkat keras dapat membantu (seperti tautan 10GbE, atau dalam beberapa kasus, ikatan NIC).
- Melalui subsistem Penyimpanan Jika Anda menggunakan Fibre Channel, kirimkan ke perangkat lain di jaringan FC. Jika Anda memiliki SAS, kirimkan ke perangkat yang terhubung dengan SAS. Umumnya lebih cepat dari Ethernet.
- Kirim ke array disk lain Kirim ke gudang penyimpanan lain yang terhubung ke server yang sama.
Itulah tampilan 100km. Setelah Anda mulai memperbesar hal-hal menjadi jauh lebih terfragmentasi. Seperti yang telah disebutkan, LTO5 adalah teknologi pita spesifik yang dirancang untuk jenis beban kepadatan tinggi ini. Array penyimpanan identik lainnya adalah target yang baik, terutama jika Anda dapat menggunakan sesuatu seperti GlusterFS atau DRBD untuk mendapatkan data di sana. Juga, jika Anda memerlukan rotasi cadangan atau hanya kemampuan untuk tetap berjalan jika array gagal akan mempengaruhi apa yang Anda tempatkan.
Setelah Anda memilih metode tampilan 100km, masuk ke perangkat lunak akan menjadi tugas besar berikutnya. Faktor-faktor yang memengaruhi ini adalah apa yang dapat Anda instal pada server penyimpanan Anda di tempat pertama (jika itu adalah NetApp, itu satu hal, server Linux dengan banyak penyimpanan adalah hal yang sama sekali berbeda, seperti halnya server Windows dengan banyak penyimpanan) , perangkat keras apa yang Anda pilih (tidak semua paket cadangan FOSS menangani perpustakaan tape dengan baik, misalnya), dan jenis retensi cadangan yang Anda butuhkan.
Anda benar-benar perlu mencari tahu Pemulihan Bencana seperti apa yang Anda inginkan. Replikasi langsung sederhana lebih mudah, tetapi tidak memungkinkan Anda untuk memulihkan dari minggu lalu saja. Jika kemampuan untuk memulihkan dari minggu lalu penting bagi Anda, maka Anda perlu merancang untuk hal semacam itu. Secara hukum (di AS dan tempat lain), beberapa data perlu disimpan selama 7+ tahun.
Replikasi sederhana adalah yang paling mudah dilakukan. Inilah yang dirancang DRBD untuk dilakukan. Setelah salinan awal selesai, itu hanya mengirimkan perubahan. Faktor-faktor rumit di sini adalah lokalitas jaringan, jika larik ke-2 Anda tidak dekat dengan DRBD utama mungkin tidak layak. Anda akan membutuhkan server penyimpanan kedua dengan ruang penyimpanan setidaknya sebanyak yang pertama.
Tentang cadangan kaset ...
LTO5 dapat menampung 1.5TB data tanpa kompresi. Memberi makan monster-monster ini membutuhkan jaringan yang sangat cepat, baik itu Fibre Channel atau SAS 6Gb. Karena Anda perlu mencadangkan lebih dari 1.5TB dalam pukulan keras, Anda perlu memeriksa autoloader (berikut adalah contohnya: tautan , autoloader 1-drive 24-slot 1-drive dari HP). Dengan perangkat lunak yang mendukungnya, mereka akan menangani penggantian kaset tengah untuk Anda. Mereka hebat. Anda masih harus menarik kaset untuk dikirim ke luar situs, tapi itu pemandangan yang lebih baik daripada berkeliaran sepanjang malam untuk memuat kaset sendiri ketika cadangan memanggil mereka.
Jika tape memberi Anda ' legacy, ew ' heebiegeebies, Virtual Tape Library mungkin lebih mempercepat Anda (seperti yang ini dari Quantum: link ). Ini berpura-pura menjadi tape library ke perangkat lunak cadangan sementara sebenarnya menyimpan sesuatu ke disk dengan teknik de-duplikasi yang kuat (Anda harap). Yang lebih keren bahkan akan menyalin kaset virtual ke kaset nyata untuk Anda, jika Anda suka hal semacam itu, yang bisa sangat berguna untuk rotasi di luar situs.
Jika Anda tidak ingin mempermasalahkan bahkan dengan kaset virtual, tetapi masih ingin melakukan backup direct-to-disk, Anda akan memerlukan array penyimpanan berukuran cukup besar untuk menangani 20TB itu, ditambah betapapun banyaknya data perubahan bersih yang Anda inginkan untuk terus memegang. Paket cadangan yang berbeda menangani ini secara berbeda. Beberapa teknologi de-duplikasi benar-benar bagus, yang lain adalah kludges hacky. Saya pribadi tidak tahu keadaan paket perangkat lunak cadangan FOSS di area ini (saya pernah mendengar tentang Bacula), tetapi mungkin cukup. Banyak paket cadangan komersial memiliki agen lokal yang Anda instal di server yang akan didukung untuk meningkatkan throughput, yang memiliki banyak manfaat.