Ini adalah robots.txt saya :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
Tetapi Alat Webmaster Google memberi tahu saya bahwa robot memblokir akses ke peta situs:
Kami mengalami kesalahan saat mencoba mengakses Peta Situs Anda. Harap pastikan Peta Situs Anda mengikuti pedoman kami dan dapat diakses di lokasi yang Anda berikan dan kemudian kirim kembali: URL dibatasi oleh robots.txt .
Saya membaca bahwa Alat Webmaster Google menyimpan cache robots.txt , tetapi file tersebut telah diperbarui lebih dari 36 jam yang lalu.
Memperbarui:
Menekan sitemap TEST tidak menyebabkan Google mengambil sitemap baru. Hanya SUBMIT sitemap yang bisa melakukan itu. (BTW, saya tidak melihat apa gunanya 'test sitemap' kecuali Anda menempelkan sitemap saat ini di sana - tidak mengambil salinan sitemap baru dari alamat yang diminta Anda masukkan sebelum tes - tapi itu pertanyaan untuk hari lain.)
Setelah mengirimkan (alih-alih menguji) sitemap baru situasinya berubah. Saya sekarang mendapatkan "URL diblokir oleh robots.txt . Peta situs berisi URL yang diblokir oleh robots.txt ." untuk 44 URL. Tepatnya ada 44 URL di peta situs. Ini berarti bahwa Google menggunakan sitemap baru tetapi masih berjalan dengan aturan robot lama (yang membuat semuanya terlarang) Tidak satu pun dari 44 URL berada di /wp-admin/
atau /wp-includes/
(yang agak tidak mungkin, karena robots.txt dibangun di atas lalat oleh plugin yang sama yang menciptakan sitemap).
Pembaruan 2:
Itu semakin buruk: pada halaman hasil Pencarian Google, deskripsi untuk homepage berbunyi: "Deskripsi untuk hasil ini tidak tersedia karena robots.txt situs ini - pelajari lebih lanjut". Semua halaman lain memiliki deskripsi yang bagus. Tidak ada robots.txt ATAU robot meta yang memblokir pengindeksan beranda.
Aku terjebak.