Ha en enkel webbadresstruktur

Webbadresstrukturen på en webbplats bör vara så enkel som möjligt. Ordna ditt innehåll så att webbadresserna är logiskt uppbyggda och på ett sätt som är läsbart för människor (hellre läsbara ord än långa id-nummer). Om du till exempel söker efter information om luftfart kan en länk som http://sv.wikipedia.org/wiki/Luftfart hjälpa dig att avgöra om du ska klicka på den länken. En webbadress som http://www.example.com/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f1 är inte lika intressant för användarna.

Det kan vara bra att använda skiljetecken i webbadressen. Webbadressen http://www.example.com/grön-klänning.html är mycket mer användbar än http://www.example.com/grönklänning.html. Vi rekommenderar att du använder bindestreck (-) i webbadresser istället för understreck (_).

Alltför komplicerade webbadresser, särskilt sådana som innehåller flera parametrar, kan orsaka problem för sökrobotar eftersom de skapar onödigt många webbadresser som pekar på exakt samma eller liknande innehåll på webbplatsen. Detta kan medföra att Googlebot förbrukar betydligt mer bandbredd än nödvändigt eller att roboten inte kan indexera hela innehållet på din webbplats.

Vanliga orsaker till detta problem

Det kan finnas flera orsaker till onödigt många webbadresser. Dessa är bland annat:

  • Flera olika filteralternativ för samma objekt Många webbplatser tillhandahåller flera olika vyer av samma objekt eller sökresultat, så att användarna kan filtrera en uppsättning med hjälp av definierade kriterier (t.ex. visa mig hotell på stranden). När filter kan kombineras och ackumuleras (t.ex. hotell på stranden och med ett fitnesscenter) kan antalet webbadresser (datavyer) på webbplatserna öka avsevärt. Att skapa många likartade men något annorlunda listor över hotell är ingen lösning. Googlebot behöver nämligen bara se ett mindre antal listor för att komma till webbsidan för varje hotell. Exempel:
    • Hotell med "lågpris":
      http://www.example.com/hotellresultat.jsp?Ne=292&N=461
    • Hotell med "lågpris" på stranden:
      http://www.example.com/hotellresultat.jsp?Ne=292&N=461+4294967240
    • Strandhotell med "lågpris" och med ett fitnesscenter:
      http://www.example.com/hotellresultat.jsp?Ne=292&N=461+4294967240+4294967270

  • Dynamiskt skapande av dokument. Detta kan resultera i smärre ändringar p.g.a. räknare, tidsstämplar eller annonser.

  • Problematiska parametrar i webbadressen. Sessions-id:n kan ge upphov till väldigt många dubbletter och många fler webbadresser.

  • Sortering av parametrar. En del stora shoppingwebbplatser erbjuder flera metoder för att sortera samma artiklar, vilket resulterar i många fler webbadresser.
    http://www.example.com/results?search_type=search_videos&search_query=tpb&search_sort=relevance
       &search_category=25
  • Irrelevanta parametrar i webbadressen, till exempelhänvisningsparametrar. Exempel:
    http://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=
       OPD+produkt+sida&cat=79
    http://www.example.com/diskussion/visatråd.php?referrerid=249406&threadid=535913
    http://www.example.com/produkter/produkter.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessories.

  • Kalenderproblem. En kalender som skapas dynamiskt kan generera länkar till tidigare och framtida datum utan några begränsningar för start- eller slutdatum. Exempel:
    http://www.example.com/kalender.php?d=13&m=8&y=2011
    http://www.example.com/ka/cgi?2008&month=jan

  • Felaktiga relativa länkar. Felaktiga relativa länkar kan ofta orsaka oändliga utrymmen. Detta problem uppstår oftast p.g.a. upprepade sökvägselement. Exempel:
    http://www.example.com/index.shtml/diskussion/kategori/skola/061121/html/intervju/
      kategori/hälsa/070223/html/kategori/företag/070302/html/kategori/grupp/070413/html/vanligafrågor.htm
Åtgärder för att lösa detta problem

För att undvika potentiella problem med webbadresstrukturer rekommenderar vi följande:

  • Använd en robots.txt-fil för att blockera Googlebots åtkomst till problematiska webbadresser. Normalt bör du blockera dynamiska webbadresser, t.ex. sådana som genererar sökresultat eller webbadresser som kan skapa oändliga utrymmen, t.ex. kalendrar. Genom att använda vanliga uttryck i din robots.txt-fil kan du blockera ett stort antal webbadresser på ett enkelt sätt.

  • Försök undvika att använda sessions-id:n i webbadresser. Prova att använda cookies i stället. Läs våra riktlinjer för webbansvariga om du vill veta mer.

  • När det är möjligt rekommenderar vi att du kortar av webbadresser genom att ta bort onödiga parametrar.

  • Om din webbplats har en oändlig kalender kan du lägga till attributet nofollow i länkar till dynamiskt skapade, framtida kalendersidor.

  • Kontrollera om det finns felaktiga länkar på din webbplats.
Var det här till hjälp?
Hur kan vi förbättra den?