Saya ingin menyembunyikan file XML sitemap saya dari semua tetapi mengizinkan akses dari mesin pencari.
Apa cara untuk melakukannya?
Saya ingin menyembunyikan kedalaman konten situs dari pesaing.
Saya ingin menyembunyikan file XML sitemap saya dari semua tetapi mengizinkan akses dari mesin pencari.
Apa cara untuk melakukannya?
Saya ingin menyembunyikan kedalaman konten situs dari pesaing.
Jawaban:
Langkah pertama adalah mendeteksi Agen-Pengguna dari bot yang ingin Anda izinkan , dan menyajikan file yang berbeda jika bukan Agen-Pengguna yang ingin Anda izinkan.
Misalnya, Anda dapat memiliki dua versi robots.txt
, satu dengan dan satu tanpa referensi peta situs, sehingga pesaing Anda tidak akan menemukan peta situs jika mereka melihat ke dalam peta Anda robots.txt
.
Kemudian, Anda bisa mendeteksi kunjungan ke URL sitemap Anda dan hanya melayani peta situs ketika UA benar. Jika Anda melayani halaman 404 umum sebaliknya, pesaing Anda mungkin bahkan tidak tahu peta situs Anda ada.
Namun, semua langkah yang dijelaskan sampai saat ini hanyalah keamanan melalui ketidakjelasan. Agen-Pengguna dapat dengan mudah dipalsukan.
Karenanya, Google menyarankan agar, untuk mendeteksi GoogleBot yang asli, Anda:
googlebot.com.
.Singkatnya:
Microsoft menyarankan untuk menggunakan prosedur yang sama untuk mendeteksi perayap mereka.
Trik ini berfungsi untuk Yahoo! demikian juga.
Untuk DuckDuckGo, Anda dapat menggunakan daftar alamat IP ini
Anda tidak perlu menggunakan kesalahan 404 jika Anda menggunakan deteksi laba-laba berbasis pencarian DNS.
Tujuan menggunakan halaman kesalahan 404 adalah untuk menyembunyikan bahwa sitemap Anda ada sama sekali. Namun, jika Anda menggunakan teknik yang lebih canggih yang tidak hanya bergantung pada User-Agent
tajuk, tidak mungkin untuk mengelak sehingga Anda dapat dengan aman menggunakan kode kesalahan yang berbeda, seperti 403 Forbidden
kode kesalahan yang benar untuk digunakan di sini.
Masalahnya adalah jika Anda (cukup benar) ingin konten Anda diindeks oleh mesin pencari, siapa pun yang melakukan suatu situs: pencarian di salah satu mesin pencari akan dapat melihat URL apa yang diindeks.
Jika Anda ingin "menyembunyikan" peta situs Anda, Anda bisa memilikinya di URL dengan nama "rahasia" sehingga tidak jelas bagi siapa pun yang mungkin mencarinya, tetapi mengingat praktik terbaik untuk menyertakan peta situs dalam robots.txt mengarsipkan dan mengunggahnya ke salah satu profil alat webmaster mesin pencari, seperti yang dikatakan orang lain, sulit untuk mengetahui mengapa Anda perlu melakukan ini.
Solusi licik adalah untuk menghasilkan dua peta situs. Yang pertama adalah untuk kepentingan pesaing Anda yang kedua adalah untuk kepentingan mesin pencari pilihan Anda. Dalam bahasa militer, sitemap pertama ini adalah tipuan.
'Tipuan' berisi struktur situs web dasar Anda, beranda, hubungi kami, tentang kami, kategori utama. Ini terlihat seperti real deal dan akan bekerja sangat baik di mesin pencari yang tidak Anda sukai. Ini juga tidak akan berguna bagi pesaing Anda. Biarkan diindeks agar mereka menemukannya, berikan nama yang jelas seperti sitemap.xml.
Sekarang buat sitemap asli Anda dengan kode. Beri nama seperti 'produk-informasi-sitemap.xml' sehingga itu adalah nama yang masuk akal tetapi sebenarnya tidak lebih mudah ditebak daripada kata sandi Anda.
Dalam konfigurasi apache Anda untuk folder sitemap, letakkan sesuatu di tempat sehingga sitemap kedua ini dapat diakses oleh mesin pencari tetapi tidak diindeks:
<IfModule mod_rewrite.c>
<Files product-information-sitemap.xml>
Header set X-Robots-Tag "noindex"
</Files>
</IfModule>
Sekarang buat kode untuk tetap diperbarui, pertimbangkan sitemap ketiga untuk gambar. Dowwngrade seperti yang diminta untuk membuat 'tipuan'. Perhatikan juga perangko waktu, Google memperhatikannya dan ini penting jika sitemap Anda besar.
Sekarang buat pekerjaan 'cron' untuk mengirimkan sitemap produk Anda ke Google secara teratur. Di entri crontab Anda, tambahkan sesuatu seperti ini untuk mengirimkan peta situs asli Anda setiap minggu:
0 0 * * 0 wget www.google.com/webmasters/tools/ping?sitemap=http%3A%2F%2Fwww.example.com%2Fsitemaps%2Fproduct-information-sitemap.xml
Perhatikan bahwa URL dikodekan URL.
Anda juga dapat gzip sitemap Anda jika ukurannya bermasalah meskipun server web Anda harus melayani gzip itu jika Anda mengaktifkannya.
Robots.txt Anda tidak harus menjadi sesuatu yang istimewa, asalkan tidak menghalangi masuk ke peta situs Anda, itu akan baik-baik saja. Benar-benar tidak perlu mengirim file robots.txt yang berbeda berdasarkan string agen pengguna atau sesuatu yang sangat rumit. Cukup tarik konten berharga Anda ke file tambahan yang tidak diiklankan dan kirimkan ke Google menggunakan tugas cron (daripada menunggu bot). Sederhana.
Saya tidak mengerti mengapa struktur situs dapat menyebabkan Anda mengalami masalah dengan pesaing?
Inti dari sitemap adalah membuat halaman diindeks, sehingga orang dapat menemukannya dengan lebih mudah, yang pada akhirnya, harus mengungkapkan bagaimana situs Anda diatur seperti:
/news/
berisi Artikel berita Anda/forum/
adalah tempat semua diskusi forumItu akan diindeks, untuk mendapatkan lebih banyak lalu lintas dan menyajikan informasi.
Seperti folder yang tidak ingin Anda indeks
Lalu, jika itu masalahnya, maka itu seharusnya tidak ada di sitemap Anda sama sekali. Plus Anda dapat mengecualikan mereka dari pengindeksan juga.
Jika Anda memiliki alamat IP bot yang ingin Anda izinkan:
<Limit GET POST PUT>
order deny,allow
deny from all
allow from 192.168.1.1 # IP 1
allow from 192.168.1.2 # IP 3
allow from 192.168.1.3 # IP 2
</LIMIT>
Jika Anda menginginkannya berdasarkan string agen pengguna:
Order Allow,Deny
allow from env=good_bot_1
allow from env=good_bot_2
Salah satu cara Anda dapat mencoba: Dalam sesi perayapan yang biasa, Google bot mengakses robots.txt dan kemudian pergi ke file sitemap. Dorong cookie untuk semua porsi robots.txt dan izinkan akses ke peta situs hanya untuk orang-orang dengan cookie. Akan ada masalah ketika bot Google tidak menerima cookie. Begitu juga sebaliknya. Dorong cookie ketika pengguna mengakses halaman selain robots.txt dan menolak akses ke sitemap bagi mereka yang memiliki cookie. Juga, berikan nama acak ke sitemap Anda, sesuatu yang berubah seiring waktu dan membuatnya tidak bisa ditebak. Jika pesaing Anda mengaktifkan cookie di browser mereka, akan sangat sulit bagi mereka untuk mengakses sitemap kecuali mereka mengikuti jalur yang tepat diikuti oleh mesin pencari.
Saya membuat asumsi bahwa saya memahami kebutuhan Anda dengan benar sehingga saya menunjukkan keberanian untuk menjawab.
berikan tautan gambar ke peta situs Anda tepat sebelum </html>
tag Anda . Gunakan file gif 1px transparan:
<a href="sitemap.xml"><img src="transparent.gif" alt="" height="1" width="1" /></a>
Di halaman yang memiliki tautan sitemap Anda, setel metatag terkait Anda:
<meta name="robots" content="{index or noindex},follow">
periksa keadaan visual ketika Anda menekan Ctrl+ Auntuk memilih semua halaman. Apakah tautan 1px terlihat, berisiko untuk Anda?
Jika Anda menjawab ya, mungkin opsi lain adalah:
<a href="sitemap.xml"> </a>
Dengan cara ini pengguna normal yang tidak sadar tidak akan melihat tautan Anda. Mesin pencari akan menyadarinya. Namun harap diperhatikan bahwa sifat alami pertanyaan Anda melibatkan ketidakmungkinan.
Saya katakan tidak mungkin karena jika pengguna mencari di Google misalnya dengan istilah ini
* site:www.yoursite.com
seluruh dunia dapat melihat semua tautan Anda jika mereka tidak lelah mengklik next
tautan.
Saya harap ini membantu.