Om robots.txt

Testa filen robots.txt med testverktyget för robots.txt

Testverktyget för robots.txt visar om filen robots.txt blockerar Googles sökrobotar från specifika webbadresser på din webbplats. Du kan t.ex. använda detta verktyg för att testa om sökroboten Googlebot-Image kan genomsöka webbadressen till en bild som du vill blockera från Google Bilder.

 

Öppna testverktyget för robots.txt

 

Du kan skicka en webbadress till testverktyget för robots.txt. Verktyget fungerar som Googlebot skulle göra för att kontrollera filen robots.txt och kontrollerar att webbadressen har blockerats på rätt sätt.

Testa robots.txt-filen

  1. Öppna testverktyget för webbplatsen och titta igenom koden i robots.txt efter markerade syntaxvarningar och logiska felAntalet syntaxvarningar och logiska fel visas alldeles nedanför redigeraren. 
  2. Skriv webbadressen till en sida på webbplatsen i tetxrutan längst ned på sidan.
  3. Välj den användaragent du vill simulera på rullgardinsmenyn till höger om textrutan.
  4. Testa åtkomsten genom att klicka på TESTA.
  5. Kontrollera om det står GODKÄND eller BLOCKERAD på knappen TESTA för att ta reda på om webbadressen du angav är blockerad för Googles sökrobotar.
  6. Redigera filen på sidan och testa igen efter behov. Observera att ändringar som görs på sidan inte sparas på webbplatsen! Se nästa steg.
  7. Kopiera ändringarna till filen robots.txt på webbplatsen. Verktyget ändrar ingenting i den faktiska filen på din webbplats. Testet görs bara relativt kopian i verktyget.

Begränsningar för testverktyget för robots.txt:

  • Ändringar som du gör i verktygets editor sparas inte automatiskt på din webbserver. Du måste kopiera innehållet från editorn och klistra in det i filen robots.txt som lagras på din server.
  • Testverktyget för robots.txt testar bara din robots.txt-fil med Googles användaragenter eller sökrobotar, exempelvis Googlebot. Vi kan inte förutsäga hur andra sökrobotar tolkar filen robots.txt.
Var det här till hjälp?
Hur kan vi förbättra den?