Saya memiliki tabel yang sangat sering diperbarui dengan 240 juta baris (dan terus bertambah). Setiap tiga jam 1,5 juta baris dimasukkan dan 1,5 juta dihapus. Ketika saya memindahkan cluster ke SSD, waktu penyisipan massal ini (menggunakan salinan) dipotong dari 22 menit menjadi 2,3 menit. Waktu penghapusan juga ditingkatkan. Saya berencana untuk membuat pembaruan massal ini setiap dua jam atau setiap jam.
Walaupun kinerjanya sekarang (setelah SSD) kompatibel dengan pembaruan yang lebih sering, saya telah membaca beberapa cerita horor tentang kematian SSD karena daya tahan NAND yang terbatas dikombinasikan dengan amplifikasi tulis. Karena SSD mahal, saya ingin mendorong kematiannya sejauh mungkin ke masa depan. Oleh karena itu pertanyaan saya: Apa yang sebenarnya terjadi pada file disk dalam delete dan vacuum berikutnya? Saya kira ada dua disk menulis, satu untuk menandai baris telah dihapus dan yang lain ketika menyedot debu untuk menandainya sebagai tersedia untuk ditimpa. Jika alih-alih menghapus dan menyedot debu, saya mempartisi tabel yang membuat dan menjatuhkan tabel pada setiap sisipan / penghapusan massal apakah saya akan meminimalkan pemakaian SSD?