Testverktyget för robots.txt visar om filen robots.txt blockerar Googles sökrobotar från specifika webbadresser på din webbplats. Du kan t.ex. använda detta verktyg för att testa om sökroboten Googlebot-Image kan genomsöka webbadressen till en bild som du vill blockera från Google Bilder.
Öppna testverktyget för robots.txt
Du kan skicka en webbadress till testverktyget för robots.txt. Verktyget fungerar som Googlebot skulle göra för att kontrollera filen robots.txt
och kontrollerar att webbadressen har blockerats på rätt sätt.
Testa robots.txt-filen
- Öppna testverktyget för webbplatsen och titta igenom koden i
robots.txt
efter markerade syntaxvarningar och logiska fel. Antalet syntaxvarningar och logiska fel visas alldeles nedanför redigeraren. - Skriv webbadressen till en sida på webbplatsen i textrutan längst ned på sidan.
- Välj den användaragent du vill simulera i rullgardinsmenyn till höger om textrutan.
- Testa åtkomsten genom att klicka på TESTA.
- Kontrollera om det står GODKÄND eller BLOCKERAD på knappen TESTA för att ta reda på om webbadressen du angav är blockerad för Googles sökrobotar.
- Redigera filen på sidan och testa igen efter behov. Observera att ändringar som görs på sidan inte sparas på webbplatsen! Se nästa steg.
- Kopiera ändringarna till filen robots.txt på webbplatsen. Verktyget ändrar ingenting i den faktiska filen på din webbplats. Testet görs bara relativt kopian i verktyget.
Begränsningar för testverktyget för robots.txt:
- Verktyget fungerar endast med egendomar med webbadressprefix. Den fungerar inte med domänegendomar.
- Ändringar som du gör i verktygets editor sparas inte automatiskt på din webbserver. Du måste kopiera innehållet från editorn och klistra in det i filen
robots.txt
som lagras på din server. - Testverktyget för robots.txt testar bara din
robots.txt
-fil med Googles användaragenter eller sökrobotar, exempelvis Googlebot. Vi kan inte förutsäga hur andra sökrobotar tolkar filenrobots.txt
.