Niet bereikbaar: robots.txt

Voordat de pagina's van je site worden gecrawld, wordt het robots.txt-bestand gecheckt om ervoor te zorgen dat er geen pagina's worden gecrawld die je automatisch hebt geblokkeerd. Je server heeft echter een 5xx-fout (niet bereikbaar) geretourneerd toen we probeerden je robots.txt-bestand op te halen. We hebben onze crawl uitgesteld om te voorkomen dat we pagina's crawlen die in het bestand staan.

Het is mogelijk dat je hostingprovider Googlebot blokkeert, of dat er een probleem is met de configuratie van de firewall.

Opmerking: Als de content van het robots.txt-bestand in je browser anders is dan wat Google ziet, werk je samen met je hostingbedrijf om serverregels te verwijderen waardoor verschillende robots.txt-content aan verschillende user-agents kan worden getoond.

Was dit nuttig?

Hoe kunnen we dit verbeteren?
true
Nieuw bij Search Console?

Heb je Search Console nog nooit gebruikt? Begin hier, of je nu beginner, SEO-expert of website-ontwikkelaar bent.

Zoeken
Zoekopdracht wissen
Zoekfunctie sluiten
Hoofdmenu
10763928078505290800
true
Zoeken in het Helpcentrum
true
true
true
true
true
83844
false
false