Saya memiliki situs yang, karena alasan pengaturan, mungkin tidak diindeks atau dicari secara otomatis. Ini berarti bahwa kita harus menjauhkan semua robot dan mencegah mereka dari spidering situs.
Jelas kami sudah memiliki file robots.txt yang melarangnya sejak awal. Namun, mengamati file robots.txt adalah sesuatu yang hanya dilakukan oleh robot berperilaku baik. Baru-baru ini kami memiliki beberapa masalah dengan robot yang berperilaku kurang baik. Saya telah mengkonfigurasi Apache untuk melarang beberapa agen pengguna tetapi cukup mudah untuk menyiasatinya.
Jadi, pertanyaannya adalah, adakah cara untuk mengkonfigurasi Apache (mungkin dengan menginstal beberapa modul?) Untuk mendeteksi perilaku seperti robot dan merespons? Ada ide lain?
Saat ini yang bisa saya lakukan adalah melarang alamat IP berdasarkan inspeksi manual dari log dan itu sama sekali bukan strategi jangka panjang yang layak.