Sitemap atau Peta Situs adalah salah satu komponen penting yang harus dibuat dan didaftarkan ke Google Search Console sebagai langkah awal optimasi SEO Google. Pertanyaannya, bolehkah menambahkan lebih dari satu sitemap XML ke robots dan Google Search Console?
Sitemap atau Peta Situs XML adalah sebuah file yang berisi informasi detail seluruh halaman dari sebuah website dalam format XML agar dapat dibaca oleh mesin pencarian seperti Google. Google akan menampilkan halaman website di hasil pencarian Google berdasarkan crawling otomatis yang bernama google crawler. Di mana Crawler ini akan membaca file robots.txt yang ada dalam website dengan format domain/robots.txt. Kemudian Google akan membaca sitemap yang terdaftar untuk melanjutkan proses indexing (pengindeksan). Google akan menganalisis file video, gambar dan teks di halaman website serta menyimpan informasi tersebut di indeks Google. Setelah proses indexing selesai, Google akan menampilkan informasi yang relevan dengan kueri pengguna atau kata kunci yang dicari pengguna.
Format Sitemap XML adalah peta situs yang paling serbaguna dari format yang didukung Google. Berikut contoh peta situs atau sitemap XML sederhana yang menyertakan URL dan lastmod :
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://www.example.com</loc>
<lastmod>2024-10-17T01:57:12+00:00</lastmod>
</url>
<url>
<loc>https://www.example.com//blog</loc>
<lastmod>2024-10-17T01:57:12+00:00</lastmod>
</url>
<url>
<loc>https://www.example.com//blog/lorem-ipsum.html</loc>
<lastmod>2024-10-17T01:57:12+00:00</lastmod>
</url>
</urlset>
File robots.txt memberikan informasi kepada google crawler URL mana yang dapat diakses di situs Anda. File ini digunakan terutama agar situs Anda terhindar dari beban permintaan yang terlampau banyak. Namun file robots.txt bukanlah mekanisme untuk menyembunyikan halaman web dari Google. Untuk menyembunyikan halaman web tertentu dari Google, Anda dapat memblokir pengindeksan dengan tag meta noindex. Berikut contoh file robots.txt, Anda dapat menambahkan URL Sitemap pada file tersebut:
User-agent: Googlebot
Disallow: /wp-admin/
User-agent: *
Allow: /
Sitemap: https://www.example.com/sitemap.xml
Berikut penjelasan dari file robots.txt di atas:
https://example.com/wp-admin/
.https://www.example.com/sitemap.xml
.Bolehkah menambahkan lebih dari satu file peta situs? ya boleh. Cara menambahkan lebih dari satu sitemap ke file robots.txt ada dua opsi, antara lain:
Opsi Pertama
Anda dapat menambahkan lebih dari satu file Peta Situs pada file robots.txt.
User-agent: Googlebot
Disallow: /wp-admin/
User-agent: *
Allow: /
Sitemap: https://www.example.com/sitemap.xml
Sitemap: https://www.example.com/news.xml
Opsi Kedua
Anda juga dapat membuat file sitemap_index.xml dan mencantumkan beberapa file peta situs pada file indexs tersebut.
<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<sitemap>
<loc>http://www.example.com/sitemap-1.xml</loc>
<lastmod>2012-10-01T18:23:17+00:00</lastmod>
</sitemap>
<sitemap>
<loc>http://www.example.com/sitemap-2.xml</loc>
<lastmod>2012-01-01</lastmod>
</sitemap>
</sitemapindex>
Kemudian Anda cukup mencantumkan satu file sitemap_index.xml pada file robots.txt.
User-agent: Googlebot
Disallow: /wp-admin/
User-agent: *
Allow: /
Sitemap: https://www.example.com/sitemap_index.xml
Jika peta situs Anda lebih dari 10 MB atau memiliki lebih dari 50.000 entri, Google mengharuskan Anda menggunakan beberapa peta situs yang dibundel dengan Berkas Indeks Peta Situs seperti contoh opsi kedua di atas.
Anda dapat membuat lebih dari satu file sitemap dan menambahkannya ke robots.txt dan juga Google Search Console. Hal itu merupakan sebagai salah satu proses awal dalam optimasi SEO Google. Praktik SEO dalam meningkatkan peringkat sebuah situs pada mesin telusur Google memanglah tidak mudah, banyak proses yang harus dilalui dan juga membutuhkan analisis yang kuat. Oleh karena ini, gunakanlah jasa halaman satu google hanya pada kami!