Kami memiliki pekerjaan reguler yang du
merangkum sejumlah subdirektori, memilih pelaku terburuk, dan menggunakan output untuk menemukan jika ada hal-hal yang dengan cepat meningkat untuk menemukan masalah potensial. Kami menggunakan diff
terhadap snapshot untuk membandingkannya.
Ada direktori tingkat atas, dengan sejumlah (beberapa ratus) subdirektori, yang masing-masing mungkin berisi 10 dari ribuan file masing-masing (atau lebih).
" du -s
" Dalam konteks ini bisa sangat agresif IO, menyebabkan server kami men-cache cache dan kemudian lonjakan IO besar-besaran yang merupakan efek samping yang sangat tidak diinginkan.
Strategi apa yang dapat digunakan untuk mendapatkan data yang sama, tanpa efek samping yang tidak diinginkan?