Saya ingin memonitor file log besar (hampir 1 GB) untuk kesalahan. Saya ingin ini mendekati waktu nyata (penundaan beberapa detik tidak masalah). Rencana saya adalah menggunakan tail -f | grep
. Apakah ada masalah kinerja dengan menggunakan metode seperti itu ketika menjalankannya dalam waktu yang lama, katakanlah dari nol byte menjadi 1 GB? Apakah ada praktik standar yang digunakan untuk pemantauan semacam itu. Perhatikan bahwa saya ingin melakukan ini menggunakan perintah unix standar yang tersedia di Solaris 10.
Jika itu mungkin, file saya bahkan berguling dan saya punya satu masalah lagi untuk menyelesaikan :). menggunakan tail -F
( --follow=name
) bukan pilihan bagi saya karena -F
tidak didukung di server saya ingin menjalankan ini. Rencana saya adalah menggunakan skrip yang akan memulai ekor ini dan polling untuk mengetahui apakah file tersebut terguling. Jika ya, maka bunuh ekornya dan mulai lagi. Adakah pendekatan yang lebih baik?
tail
", kan?