Om sidan har blockerats för Google av en robots.txt-regel visas den troligen inte i Googles sökresultat, och om den mot förmodan visas innehåller resultatet ingen beskrivning.
1. Kontrollera om en sida har blockerats av robots.txt
Om du har verifierat att du äger webbplatsen i Search Console:
- Öppna granskningsverktyget för webbadresser.
- Granska webbadressen som visas för sidan i Googles sökresultat. Kontrollera att du har valt den Search Console-egendom som innehåller webbadressen.
- Kontrollera statusen för Sidindexering i granskningsresultatet. Om det står Blockerad av robots.txt har du identifierat problemet. Gå vidare till nästa avsnitt för att åtgärda det.
Om du inte har verifierat webbplatsen i Search Console:
- Sök efter en validerare för robots.txt.
- Ange webbadressen till sidan som saknar beskrivning i valideringsverktyget. Använd webbadressen som visas för sidan i Googles sökresultat.
- Om valideraren visar att sidan har blockerats för Google har du identifierat problemet. Gå vidare till nästa avsnitt för att åtgärda det.
2. Åtgärda regeln
- Använd en validerare för robots.txt för att ta reda på vilken regel som blockerar sidan och var robots.txt-filen finns.
- Åtgärda eller ta bort regeln:
- Om du anlitar ett webbhotell (t.ex. om webbplatsen finns på Wix, Joomla eller Drupal) kan vi inte beskriva exakt hur du ska uppdatera robots.txt-filen, eftersom varje webbhotell hanterar detta på olika sätt. Sök i leverantörens dokumentation efter anvisningar om hur du ska ta bort blockeringen så att Google får läsa sidan eller webbplatsen. Du kan t.ex. söka efter ”robots.txt leverantörens_namn” eller ”unblock page to Google leverantörens_namn”. Exempel på sökning: robots.txt Wix
- Om du kan ändra robots.txt-filen direkt tar du bort regeln eller uppdaterar den enligt syntaxen för robots.txt.