Een eenvoudige URL-structuur gebruiken

De URL-structuur van een site moet zo eenvoudig mogelijk zijn. Probeer uw inhoud zo te organiseren dat de URL's logisch zijn opgebouwd en op een manier die begrijpelijk is voor mensen (bij voorkeur met leesbare woorden in plaats van lange ID-nummers). Als u bijvoorbeeld zoekt naar informatie over luchtvaart, helpt een URL als http://nl.wikipedia.org/wiki/Luchtvaart u te beslissen of u op die link wilt klikken. Een URL als http://www.example.com/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f1 is veel minder aantrekkelijk voor gebruikers.

Gebruik interpunctie in uw URL's. De URL http://www.example.com/groene-jurk.html is veel nuttiger voor ons dan http://www.example.com/groenejurk.html. We raden u aan koppeltekens (-) in plaats van onderstrepingstekens (_) in uw URL's te gebruiken.

Al te complexe URL's, met name URL's die meerdere parameters bevatten, kunnen problemen opleveren voor crawlers, doordat hiermee onnodig grote aantallen URL's worden gemaakt die naar (vrijwel) identieke inhoud op uw site verwijzen. Hierdoor kan Googlebot veel meer bandbreedte gebruiken dan nodig is, of kan de bot niet alle inhoud op uw site indexeren.

Veelvoorkomende oorzaken van dit probleem

Een onnodig groot aantal URL's kan verschillende oorzaken hebben. Deze zijn onder andere:

  • Gecombineerd filteren voor een set items Op veel sites kan dezelfde set gegevens of zoekresultaten op meerdere manieren worden bekeken. Vaak kan de gebruiker filteren op bepaalde criteria (zoals 'laat hotels aan het strand zien'). Wanneer filters aanvullend kunnen worden gecombineerd (bijvoorbeeld 'hotels aan het strand met een fitnesscentrum'), neemt het aantal URL's (weergaven van gegevens) explosief toe. Het is niet nodig een groot aantal lijsten van hotels te maken die slechts in geringe mate van elkaar verschillen. Googlebot heeft slechts een paar lijsten nodig vanwaaruit de pagina voor elk hotel kan worden bereikt. Bijvoorbeeld:
    • Goedkope hotels:
      http://www.example.com/hotel-zoekresultaten.jsp?Ne=292&N=461
    • Goedkope hotels aan het strand:
      http://www.example.com/hotel-zoekresultaten.jsp?Ne=292&N=461+4294967240
    • Goedkope hotels aan het strand en met een fitnesscentrum:
      http://www.example.com/hotel-zoekresultaten.jsp?Ne=292&N=461+4294967240+4294967270

  • Dynamisch genereren van documenten. Dit kan leiden tot kleine wijzigingen vanwege een andere teller, tijdstempel of andere advertenties.

  • Problematische parameters in de URL. Sessie-ID's kunnen bijvoorbeeld ontzettend veel kopieën van een pagina genereren, en daarmee een groot aantal URL's.

  • Parameters sorteren. Sommige grote winkelsites bieden meerdere manieren om dezelfde items te sorteren, wat leidt tot een veel groter aantal URL's.
    http://www.example.com/results?search_type=search_videos&search_query=tpb&search_sort=relevance
       &search_category=25
  • Irrelevante parameters in de URL, zoals verwijzingsparameters. Bijvoorbeeld:
    http://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=
       OPD+Product+Pagina&cat=79
    http://www.example.com/discuss/showthread.php?referrerid=249406&threadid=535913
    http://www.example.com/products/products.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessoires.

  • Agendaproblemen. Een dynamisch gegenereerde agenda kan links genereren naar toekomstige en eerdere datums, zonder beperkingen voor de begin- of einddatum. Bijvoorbeeld:
    http://www.example.com/calendar.php?d=13&m=8&y=2011
    http://www.example.com/calendar/cgi?2008&month=jan

  • Gebroken relatieve links. Gebroken relatieve links kunnen oneindige ruimtes genereren. Dit probleem wordt vaak veroorzaakt door herhaalde pad-elementen. Bijvoorbeeld:
    http://www.example.com/index.shtml/discuss/category/school/061121/html/interview/
      category/health/070223/html/category/business/070302/html/category/community/070413/html/FAQ.htm
Stappen om dit probleem op te lossen

We raden het volgende aan om potentiële problemen met de URL-structuur te voorkomen:

  • U kunt een robots.txt-bestand gebruiken om de toegang van Googlebot tot problematische URL's te blokkeren. Normaal gesproken blokkeert u dynamische URL's, zoals URL's die zoekresultaten genereren, of URL's die oneindige ruimtes kunnen genereren, zoals agenda's. Wanneer u reguliere expressies gebruikt in uw robots.txt-bestand, kunt u gemakkelijk grote aantallen URL's blokkeren.

  • Probeer waar mogelijk het gebruik van sessie-ID's in URL's te vermijden. In plaats daarvan kunt u beter cookies gebruiken. Lees voor meer informatie onze richtlijnen voor webmasters.

  • Probeer waar mogelijk URL's in te korten door onnodige parameters te verwijderen.

  • Als uw site een oneindige kalender bevat, voegt u een nofollow-kenmerk toe aan links naar dynamische gemaakte kalenderpagina's in de toekomst.

  • Controleer uw site op gebroken relatieve links.
Was dit artikel nuttig?
Hoe kunnen we dit verbeteren?