Fungsi robots.txt
Halaman mana yang ingin kita publikasikan dan halaman mana yang ingin kita cekal, kita bisa mengatur hal tersebut melalui robots.txt ini.
Untuk apa dicekal?
Agar tidak terdapat duplikat konten di hasil pencarian, jadi yang muncul adalah satu postingan saja, bukan halaman archive ataupun halaman yang lain.Fungsi robots.txt
Untuk cara pemasangan pada blog selain blogspot, semisal wordpress, sobat bisa menggunakan plugin (cari di google..) dan menuliskannya seperti perintah default seperti contoh di bawah, begitu juga untuk blog yang lain selain wordpress sobat harus meng-uploadnya terlebih dulu ke root directory server yang sobat gunakan.
Caranya, tulislah perintahnya pada notepad, jadi filenya berupa txt dengan nama robots.txt
Untuk blogspot, sobat bisa menggunakannya dengan cara tidak mengaktifkan opsi robots.txt tersebut, jadi biarkan nonaktif (dinonaktifkan).
Untuk melihatnya, sobat bisa dengan menuliskan /robots.txt dibelakang URL,
Contoh http://bloggerkauman.blogspot.com/robots.txt
Lalu tekan enter, dan sobat akan melihat perintah tersebut walaupun sobat tidak mengaktifkan opsi robots.txt ini.
Tapi bila sobat menginginkan pencekalan yang lain, sobat bisa mengaktifkan opsi ini, kemudian menuliskan perintah seperti defaut lalu menambahkan beberapa baris perintah yang diinginkan.
Untuk mengaturnya di blogspot:
Setelan > Preferensi Penelusuran > Pilih robots.txt khusus
Fungsi robots.txt |
Seperti inilah, perintah umum dari robots.txt (default dari google) tersebut,
Disallow:
User-agent: *
Disallow: /search/
Allow: /
Sitemap: http://bloggerkauman.blogspot.com/sitemap.xml
Perintah robots.txt
Berikut ini penulis akan mencoba mengulas agar lebih jelas tentang arti dan beberapa perintah yang digunakan untuk penulisan robots.txtUser-agent:*
Nama bot yang dipanggil
Tanda * menandakan semua bot crawler
Disallow:
Tidak ada halaman yang dicekal
Disallow: /
Semua halaman dicekal
*bila terdapat nama path dibelakang / berarti kita melakukan pencekalan pada path tersebut, contoh
Disallow: /search
berarti kita melakukan pencekalan pada path search, atau dengan kata lain mesin pencari tidak diperbolehkan untuk merambani halaman yang dibelakang url nya bertuliskan /search seperti contoh http://bloggerkauman.blogspot.com/search/label/Tutorial%20blog?max-results=4
Karena halaman tersebut tidak perlu untuk dirambani dan tidak perlu untuk dipublikasikan.
Akan tetapi bila menuliskan Disallow: / terus tanpa ditambahi nama path, maka kita telah mencekal semua halaman blog. (nah.. untuk apa kita mencekal semua halaman?)
Allow: /
Semua halaman diperbolehkan untuk dirambani, sama seperti Disallow:
Sitemap:
Alamat sitemap kita.
Masukkan alamat sitemap yang valid dan sama dengan alamat sitemap yang kita submit di google webmaster tools.
Selanjutnya, sobat bisa mencekal halaman yang lain seperti:
Disallow: /?m=0
Disallow: /?m=1
Disallow: /*archive.html
Ada yang mau nambahi?
Silahkan tulis komentar dibawah..
Semoga artikel tentang fungsi robots.txt ini bermanfaat bagi blogger semua..
Happy Blogging!
Maka dari itu mas, biasanya dalam pengaturan tersebut ada peringatan kalau salah maka akan terjadi no index yang nantinya itu membuat blog kita enggak ditelusuri.
ReplyDeletePadahal itu penting, saya setuju dengan artikel mas, makasih ya?
saya makin bingung dengan robot txt,hehehehehe
ReplyDeletehttp://sekiryute1.blogspot.co.id/
ReplyDeleteTRAVEL DARI BANDARA JUANDA KE TUBAN
ReplyDeleteBisa dijelaskan tentang gan
ReplyDeleteDisallow: /?m=0
Disallow: /?m=1
Disallow: /*archive.html
Disallow: /p/
terima kasih atas penjelasannya
kunjungi juga gan blog saya https://oneblogku.blogspot.co.id
Disallow: /?m=0 agar di hasil pencarian google tidak muncul /?m=0 setelah url (ini hanya utk custom domain yg menggunakan blogger)
DeleteDisallow: /?m=1 juga seperti itu.
=> contoh: www.romli.net/?m=1
/?m=0 tampilan desktop dan /?m=1 tampilan mobile.
Disallow: /*archive.html agar halaman aechive tdk tampil di pencarian google.
Disallow: /p/ agar halaman statis tidak tampil di pencarian google.
Banyak blogger yang sebelumnya terindex banyak kemudian dapat nontif Webmaster Block by Robot.txt banyak setelah pasang Disallow: /search/
ReplyDeleteItu karena url Label yang dulu terindex menjadi ke Block