Tidak terjangkau: robots.txt

Sebelum meng-crawl halaman situs, kami mencoba memeriksa file robots.txt Anda untuk memastikan bahwa kami tidak meng-crawl halaman yang dikecualikan. Namun, server Anda menampilkan error 5xx (tidak terjangkau) saat kami mencoba mengambil file robots.txt tersebut. Untuk memastikan bahwa kami tidak meng-crawl halaman apa pun yang tercantum dalam file tersebut, kami menunda crawling.

Penyedia hosting Anda mungkin memblokir Googlebot atau konfigurasi firewall-nya mungkin bermasalah.

Catatan: Jika konten file robots.txt di browser Anda berbeda dengan yang dilihat oleh Google, bekerjasamalah dengan perusahaan hosting Anda untuk menghapus aturan server yang mungkin menampilkan konten robots.txt yang berbeda ke agen pengguna yang berbeda.

Apakah ini membantu?

Bagaimana cara meningkatkannya?

Perlu bantuan lain?

Coba langkah-langkah selanjutnya berikut:

true
Baru mengenal Search Console?

Belum pernah menggunakan Search Console? Mulai di sini, baik Anda adalah pemula, pakar SEO, atau developer situs.

Telusuri
Hapus penelusuran
Tutup penelusuran
Menu utama
10941135350583714518
true
Pusat Bantuan Penelusuran
true
true
true
true
true
83844
false
false