Tuesday, September 21, 2021

Cara Setting atau Membuat File Robot.txt di Blogger

Untuk SEO lanjutan kali ini kita dapat mengontrol file mana yang bisa di rambati oleh crawler dan mana yang tidak. Karena bagi blogger sangatlah penting untuk meningkatkan SEO dengan mengaktifkan dan menyeting file robot.txt didalam blognya. File robot.txt ini berada di root situs kalian, Robot.txt itu sendiri adalah aturan memblokir atau mengakses crawler tertentu ke jalur file yang ditentukan dalam situs tersebut.

Adapun cara mengaktifkan atau setting robot.txt tersebut sebagai berikut :

 1. Login ke www.blogger.com kalian

 2. Klik di setting 

  3. Geser ke arah kanan pada Enable Custom Robot.txt


 
4. Masih di tempat yang sama, Klik Custom Robot.txt

 


  5. Setelah di klik maka akan muncul seperti di bawah ini

  6. Kemudian copy kode di bawah ini dan pastekan ke dalam kotak tersebut di atas.

      User-agent :  Googlebot

   Disallow :  /Nogooglebot/

   User-agent :  *

   Allow :  /

   Sitemap : https://www.(url situs kalian).com/sitemap.xml

Berikut ini adalah maksud dari kode diatas :

Agen pengguna yang bernama googlebot tidak diizinkan meng-crawl url atau alamat situs apa pun yang diawali dengan >> http://www.example.com/nogooglebot/

semua agen pengguna diizinkan meng-crawl isi seluruh situs.

File peta situs pada situs terletak di >> Sitemap : https://www.example.com/sitemap.xml

Demikian artikel ini dibuat semoga bermanfaat bagi kalian yang mendalami SEO dan bagi penulis yang sedang meng-optimasi blognya.

 

 


Previous Post
Next Post

Seorang yang senang dengan dunia IT, seorang desainer yang suka menulis apa saja yang dianggap layak untuk ditulis dan disajikan kepada masyarakat luas.

0 comments: