Fasthold en enkel webadressestruktur

Strukturen i en webadresse bør være så enkel som mulig. Du kan organisere dit indhold, så webadresserne er opbygget logisk og på en måde, der gør dem lettere at læse (brug om muligt læsbare ord og ikke lange ID-numre). Hvis du f.eks. søger efter oplysninger om luftfart, vil en webadresse som http://da.wikipedia.org/wiki/Luftfart kunne hjælpe dig med at bestemme, om du skal klikke på linket. En webadresse som http://www.example.com/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f1 er ikke særlig indbydende for brugerne.

Overvej, hvilken tegnsætning du bruger i dine webadresser. Webadressen http://www.example.com/groen-kjole.html er meget mere anvendelig for os end http://www.example.com/groenkjole.html. Vi anbefaler, at du bruger bindestreger (-) i stedet for understregninger (_) i dine webadresser.

Unødigt komplekse webadresser, der f.eks. indeholder flere parametre, kan give problemer for webcrawlere ved at generere unødvendigt mange webadresser, der peger på identisk eller lignende indhold på dit website. Derfor bruger Googlebot måske meget mere båndbredde end nødvendigt, eller også kan den ikke indeksere alt indholdet på dit website.

Almindelige årsager til dette problem

Et unødvendigt højt antal webadresser kan være forårsaget af en række forskellige problemer. Heriblandt:

  • Additiv filtrering af et sæt elementer Mange websites indeholder forskellige visninger af det samme sæt elementer eller søgeresultater, hvilket ofte sætter brugeren i stand til at filtrere sættet med definerede kriterier (f.eks.: Vis mig hoteller på stranden). Når filtre kan kombineres på en additiv måde (f.eks. hoteller på stranden og med fitnesscenter), vil antallet af webadresser (datavisninger) på disse websites eksplodere. Oprettelse af et stort antal lidt forskellige lister over hoteller er overflødigt, fordi Googlebot kun skal se et mindre antal lister, hvorfra den kan nå siden for hvert hotel. For eksempel:
    • Hotelejendomme til "gode priser":
      http://www.example.com/hotel-search-results.jsp?Ne=292&N=461
    • Hotelejendomme til "gode priser" på stranden:
      http://www.example.com/hotel-search-results.jsp?Ne=292&N=461+4294967240
    • Hotelejendomme til "gode priser" på stranden og med et fitnesscenter:
      http://www.example.com/hotel-search-results.jsp?Ne=292&N=461+4294967240+4294967270

  • Dynamisk generering af dokumenter. Dette kan medføre mindre ændringer på grund af tællere, tidsstempler eller annoncer.

  • Problematiske parametre i webadressen. Sessions-id'er kan f.eks. oprette store mængder dubletter og et større antal webadresser.

  • Sorteringsparametre. Nogle store indkøbswebsites indeholder flere måder at sortere de samme elementer på, hvilket resulterer i et meget større antal webadresser. F.eks.:
    http://www.example.com/results?search_type=search_videos&search_query=tpb&search_sort=relevance
       &search_category=25
  • Irrelevante parametre i webadressen, f.eks. henvisningsparametre. For eksempel:
    http://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=
       OPD+Product+Page&cat=79
    http://www.example.com/discuss/showthread.php?referrerid=249406&threadid=535913
    http://www.example.com/products/products.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessories.

  • Kalenderproblemer. En dynamisk genereret kalender kan generere link til fremtidige eller tidligere datoer uden begrænsninger i start- eller slutdatoer. For eksempel:
    http://www.example.com/calendar.php?d=13&m=8&y=2011
    http://www.example.com/calendar/cgi?2008&month=jan

  • Brudte relative links. Brudte relative link kan ofte medføre uendelige mellemrum. Dette problem opstår ofte på grund af gentagne stielementer. For eksempel:
    http://www.example.com/index.shtml/discuss/category/school/061121/html/interview/
      category/health/070223/html/category/business/070302/html/category/community/070413/html/FAQ.htm



  •  
  •  
Vejledning til løsning af dette problem

For at undgå potentielle problemer med webadressestrukturen anbefaler vi følgende:

  • Du kan bruge en robots.txt-fil til at blokere Googlebots adgang til problematiske webadresser. Typisk bør du overveje at blokere dynamiske webadresser, f.eks. webadresser, der genererer søgeresultater, eller webadresser, der kan oprette uendelige mellemrum, f.eks. kalendere. Brug af almindelige udtryk i din robots.txt-fil kan sætte dig i stand til nemt at blokere et stort antal webadresser.

  • Hvis det er muligt, bør du undgå at bruge sessions-id'er i webadresser. Du kan bruge cookies i stedet. Du kan få flere oplysninger i vores retningslinjer for webmastere.

  • Hvis det er muligt, bør du forkorte webadresser ved at fjerne unødvendige parametre.

  • Hvis dit website har en uendelig kalender, skal du tilføje attributten nofollow til links til dynamisk oprettede fremtidige kalendersider.

  • Kontrollér, om der er brudte relative links på dit website.