Kesempatan ini Seobers akan membahas tentang Cara mengatasi url di cekal robot txt. Biasanya url yang dicekal semakin banyak atau berkurang itu terkadang karena settingan robot txt dan robot tag header di blog sobat. Saat ini seobers akan membagikan sedikit mengenai Cara mengatasi url di cekal robot txt.
Sobat sudah tahukan mengenai robot txt? kalau belum coba sobat lihat beberapa settingan robot text dan settingan robot tag header yang sudah dibahas pada waktu yang lalu di ; Cara setting robot txt yang seo frendly. Bukan hanya itu jika anda benar dalam settingan robot txt maka dapat memperbaiki duplikat deskripsi di blog anda; baca; Cara memperbaiki duplikat konten.
Bagaimana cara mengetahui berapa banyak url dicekal di blog anda?, Silahkan masuk ke Webmaster tools Google untuk mengetahuinya, Kemudian pilih blog anda yang ingin anda lihat url yang di cekal, kemudian pilih perayapan > Url yang dicekal. Lihat berapa banyak url yang dicekal di blog anda. Kalau belum mendaftar ke webmaster tidak akan ketahuan berapa jumlah url yang dicekal tersebut.
Cara mengatasinya kita tinggal merubah kode robot.txt Disallow: /search menjadi Disallow: saja. Berikut ini cara mengatasi url yang dicekal atau setidaknya menguranginya.
1. Masuk dashboard > setelan > preferensi penelusuran
2. Pada Perayap dan pengindeksan pliih edit di menu robots.txt khusus
3. Aktifkan konten robots.txt khusus? jawab "Ya"
4. Isikan kode ini:
User-agent: Mediapartners-GoogleKeterangan:
Disallow:
User-agent: *
Disallow:
Allow: /
Sitemap: http://seobers1.blogspot.com/feeds/post/default?orderby=UPDATED
Silahkan ganti kode yang berwarna merah dengan url blogmu.
4. Simpan perubahan. dan,
5. Selesai.
6. Tunggu beberapa hari untuk melihat hasilnya.
Jika tidak berhasil coba untuk tidak menggunakan settingan robot txt. Ok sobat sekian mengenai Cara mengatasi url di cekal robot.txt atau Cara memperbaiki url di cekal robot.txt, semoga tutorial ini bermanfaat untuk anda.
Post Comment