Bagian mana dari situs Anda yang sensitif?
Jika hanya data dalam file, maka menimpa file dengan data dari /dev/zero
atau /dev/random
menggunakan alat bawaan seperti dd
seharusnya baik-baik saja, dengan asumsi sistem file tidak mengalokasikan penyimpanan baru saat menimpa file.
Jika struktur direktori itu sendiri sensitif (nama file, misalnya), maka Anda akan memerlukan solusi yang lebih menyeluruh. Saya bingung di sini, tetapi Anda mungkin perlu (post-overwrite) menghapus semua file di setiap direktori, kemudian membuat banyak file di direktori yang sama menggunakan touch
dan menghapusnya sebelum menghapus direktori induk, menggunakan algoritma kedalaman-pertama. Saya tahu sesuatu dapat dibuat menggunakan find
dan semacamnya, tetapi saya tidak tahu alat siap-pakai yang melakukan ini.
Dalam kasus Anda, merobek-robek file (menimpa file berulang kali dengan data acak) berlebihan karena tidak ada yang akan mencoba memulihkan data Anda dengan memisahkan drive fisik dan mencoba mengambil data track-edge. Saya tidak yakin bahwa teknik pemulihan bahkan berfungsi lagi dengan drive kepadatan tinggi modern; menimpa data dengan nol mungkin lebih dari cukup.