Saya tidak suka bahwa saya melihat banyak 404 kesalahan di access.log server web saya. Saya mendapatkan kesalahan itu karena crawler mencoba membuka file robots.txt , tetapi tidak dapat menemukannya. Jadi saya ingin menempatkan file robots.txt sederhana yang akan mencegah 404 kesalahan muncul di file log saya.
Apa file minimum robots.txt yang valid yang akan memungkinkan semua yang ada di situs dirayapi?