Apa Itu Robots.txt?
Sebelum kita mulai mengutak-atik robots.txt, yuk kita kenalan dulu. Robots.txt adalah sebuah file kecil yang tinggal di server websitemu, tapi punya fungsi besar banget. File ini kasih tahu mesin pencari seperti Google, Bing, dan lainnya halaman mana saja yang boleh dan tidak boleh mereka lihat atau simpan.
Bayangin aja seperti penjaga gerbang website kamu. Dia ngatur siapa yang boleh masuk dan lihat-lihat, dan siapa yang harus stop di depan pintu.
Kenapa Robots.txt Penting Buat SEO?
Mungkin kamu bertanya, “Emang sepenting itu ya?” Jawabannya: iya banget!
Kalau kamu biarkan semua halaman websitemu bisa diakses tanpa aturan, mesin pencari bisa membuang waktu merayapi halaman-halaman yang nggak penting, seperti halaman admin, cart, atau halaman testing. Akibatnya? Halaman penting bisa jadi nggak keindeks dengan baik.
Dengan optimasi robots.txt, kamu bisa:
- Fokuskan crawl Google ke halaman penting.
- Kurangi beban server.
- Cegah indeks halaman duplikat atau sensitif.
- Bantu SEO kamu lebih optimal!.
Bentuk Dasar Robots.txt
Format file ini sederhana banget, bahkan kamu bisa buat pakai notepad. Contoh paling basic:
makefileCopyEditUser-agent: *
Disallow:
Artinya robots.txt diatas yaitu semua mesin pencari boleh mengakses semua halaman.
Tapi kalau kamu mau batasi akses:
makefileCopyEditUser-agent: *
Disallow: /admin/
Disallow: /cart/
Artinya, semua mesin pencari tidak boleh merayapi folder /admin dan /cart.
Cara Optimasi Robots.txt yang Efektif
Berikut beberapa tips biar robots.txt kamu nggak cuma ada, tapi kerja dengan baik:
1. Pahami Struktur Website Kamu
Sebelum menulis robots.txt, kamu harus tahu dulu struktur websitemu. Halaman mana yang penting? Mana yang nggak perlu muncul di Google?
2. Jangan Block Halaman yang Dibutuhkan
Kadang ada yang asal block banyak folder. Hasilnya? Google jadi nggak bisa akses halaman penting, bahkan halaman utama bisa hilang dari pencarian!
Contoh salah:
makefileCopyEditUser-agent: *
Disallow: /
Ini artinya Google nggak boleh akses apapun. Bahaya banget kalau sampai ini yang terjadi!
3. Gunakan Sitemap
Tambahkan link sitemap XML kamu di bagian akhir robots.txt:
arduinoCopyEditSitemap: https://namadomainkamu.com/sitemap.xml
Ini membantu Google menemukan struktur halaman kamu lebih cepat.
4. Test Robots.txt dengan Alat Gratis
Google punya tool bernama Robots Testing Tool di Search Console. Gunakan untuk cek apakah robots.txt kamu memblokir halaman yang nggak seharusnya.
5. Update Kalau Ada Perubahan
Website kamu terus berkembang, kan? Maka, robots.txt juga harus ikut diperbarui. Misalnya, kamu tambahkan folder baru atau migrasi halaman—jangan lupa update file ini.
Contoh Robots.txt untuk Website Toko Online
makefileCopyEditUser-agent: *
Disallow: /wp-admin/
Disallow: /checkout/
Disallow: /cart/
Disallow: /thank-you/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://tokomu.com/sitemap.xml
Penjelasan:
- Google nggak boleh akses halaman checkout, cart, dan thank-you (karena itu halaman personal).
- Tapi tetap bisa akses admin-ajax.php untuk keperluan teknis.
- Sitemap dikasih tahu biar Google bisa merayapi lebih efisien.
Kesalahan Umum yang Harus Dihindari
🚫 Memblokir halaman penting seperti homepage atau blog.
🚫 Tidak pakai sitemap.
🚫 Terlalu banyak Disallow tanpa tujuan jelas.
🚫 Tidak pernah ngecek robots.txt lagi setelah dibuat.
Kesimpulan: Harus Mulai dari Mana?
Kamu bisa mulai dari membuat daftar halaman-halaman penting dan halaman-halaman yang ingin kamu sembunyikan dari mesin pencari. Setelah itu, buat file robots.txt sesuai dengan kebutuhan website kamu.
Kalau kamu butuh bantuan profesional untuk optimasi SEO atau bikin website yang siap bersaing di Google, kunjungi Serindit Creatives.
Kami paham cara kerja robots.txt, SEO, dan segala teknis yang bikin website kamu mudah ditemukan oleh Google dan calon pelangganmu. Selain robots.txt, kamu juga bisa tingkatkan performa SEO dengan mengoptimalkan gambar dan video di website. Yuk pelajari caranya di blog Bagaimana Cara Mengoptimalkan Gambar dan Video untuk SEO