Saya memiliki beberapa URL dinamis yang dihasilkan.
Bisakah saya menggunakan regex untuk memblokir URL ini dalam file robots.txt?
Saya memiliki beberapa URL dinamis yang dihasilkan.
Bisakah saya menggunakan regex untuk memblokir URL ini dalam file robots.txt?
Jawaban:
Ekspresi Reguler tidak valid di robots.txt, tetapi Google, Bing dan beberapa bot lainnya mengenali beberapa pencocokan pola.
Katakanlah jika Anda ingin memblokir semua URL yang example
ada di mana saja di URL, Anda dapat menggunakan entri wild card *
User-agent: *
Disallow: /*example
Anda juga dapat menggunakan tanda dolar $ untuk menentukan bahwa URL harus berakhir seperti itu. Jadi, jika Anda ingin memblokir semua URL yang diakhiri dengan example
, tetapi bukan URL yang memiliki tempat example
lain di URL yang dapat Anda gunakan:
User-agent: *
Disallow: /*example$
Info lebih mendalam untuk Google dapat ditemukan di sini: Spesifikasi Robots.txt , Bing di sini: Cara Membuat file Robots.txt dan ada panduan interaktif tentang Moz di sini