Værktøjet Test af robots.txt viser dig, om din robots.txt-fil blokerer Googles webcrawlere fra specifikke webadresser på dit website. Du kan f.eks. bruge værktøjet til at finde ud af, om Googlebot-Image kan gennemsøge en webadresse efter det billede, som du vil blokere fra visning i Google Billeder.
Du kan også sende en webadresse til værktøjet Test af robots.txt. Værktøjet fungerer ligesom Googlebot med at undersøge din robots.txt-fil
og bekræfte, at din webadresse er blevet blokeret korrekt.
Test din robots.txt-fil
- Åbn testværktøjet for dit website, og gennemse
robots.txt-filens
kode for at finde de markerede syntaksadvarsler og logikfejl. Antallet af syntaksadvarsler eller logikfejl vises straks neden for redigeringsværktøjet. - Indtast webadressen på en side på dit website i tekstfeltet nederst på siden.
- Vælg den brugeragent, du vil simulere, på rullelisten til højre for tekstfeltet.
- Klik på knappen Test for at teste adgang.
- Se efter, om knappen TEST viser ACCEPTERET eller BLOKERET for at finde ud af, om den webadresse, du indtastede, er blokeret for Googles webcrawlere.
- Rediger filen på siden, og test eventuelt igen. Bemærk! De ændringer, du foretager på siden, gemmes ikke på dit website. Se næste trin.
- Kopiér dine ændringer til robots.txt-filen på dit website. Dette værktøj foretager ikke ændringer i selve filen på dit website. Det tester kun på den kopi, der hostes i værktøjet.
Begrænsninger i værktøjet Test af robots.txt:
- Eventuelle ændringer, du foretager i redigeringsværktøjet, gemmes ikke automatisk på din webserver. Du skal kopiere indholdet fra redigeringsværktøjet og indsætte det i den
robots.txt-fil
, der er gemt på din server. - Værktøjet Test af robots.txt tester desuden kun
robots.txt-filer
med Googles brugeragenter, såsom Googlebot. Vi kan ikke forudse, hvordan andre webcrawlere tolker dinrobots.txt-fil
.