URL-Struktur einfach halten

Die URL-Struktur einer Website sollte so einfach wie möglich gehalten sein. Organisieren Sie Ihre Inhalte am besten so, dass URLs logisch und in einer Weise konstruiert sind, die für Nutzer sinnvoll ist. Verwenden Sie lesbare Wörter anstatt langer ID-Nummern, falls möglich. Wenn Sie zum Beispiel nach Informationen zur Luftfahrt suchen, hilft eine URL wie http://de.wikipedia.org/wiki/Luftfahrt zu entscheiden, ob Sie auf diesen Link klicken sollen. Eine URL wie http://www.example.com/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f1 spricht Nutzer viel weniger an.

Verwenden Sie nach Möglichkeit Interpunktionszeichen in Ihren URLs. Die URL http://www.ihremusterdomain.de/gruenes-kleid.html ist für uns viel nützlicher als http://www.ihremusterdomain.de/grueneskleid.html. Wir empfehlen die Verwendung von Bindestrichen (-) anstelle von Unterstrichen (_) in Ihren URLs.

Zu komplexe URLs – insbesondere URLs mit zahlreichen Parametern – können Crawlern Schwierigkeiten bereiten, da sie eine unnötig große Anzahl von URLs zur Folge haben, die allesamt auf identische oder ähnliche Inhalte auf Ihrer Website verweisen. Dadurch kann der Googlebot möglicherweise nicht den gesamten Inhalt Ihrer Website indexieren oder verbraucht erheblich mehr Bandbreite als nötig.

Häufigste Ursachen für dieses Problem

Eine unnötig hohe Anzahl von URLs kann verschiedene Ursachen haben, unter anderem:

  • Kombiniertes Filtern einer Gruppe von Elementen. Viele Websites bieten verschiedene Ansichten derselben Gruppe von Elementen oder Suchergebnissen und ermöglichen dem Nutzer so, diese Gruppe mit definierten Kriterien zu filtern (Beispiel: Hotels am Strand anzeigen). Wenn Filter derart kombiniert werden können, z. B. Hotels am Strand und mit Fitnesscenter, steigt die Anzahl der URLs (Datenansichten) drastisch an. Das Erstellen einer großen Anzahl von etwas unterschiedlichen Listen mit Hotels ist überflüssig, da der Googlebot nur eine kleine Anzahl von Listen sehen muss, über die der Zugriff auf die jeweilige Seite des Hotels erfolgen kann. Beispiel:
    • Hotels zu "Niedrigpreisen":
      http://www.example.com/hotel-suchergebnisse.jsp?Ne=292&N=461
    • Hotels zu "Niedrigpreisen" am Strand:
      http://www.example.com/hotel-suchergebnisse.jsp?Ne=292&N=461+4294967240
    • Hotels zu "Niedrigpreisen" am Strand und mit Fitnesscenter:
      http://www.ihremusterdomain.de/hotel-suchergebnisse.jsp?Ne=292&N=461+4294967240+4294967270

  • Dynamische Erstellung von Dokumenten: Hier können geringfügige Änderungen aufgrund von Zählern, Zeitstempeln oder Werbeanzeigen entstehen.

  • Problematische Parameter in der URL: Sitzungs-IDs können beispielsweise ein erhebliches Maß an Duplizierungen und eine größere Anzahl von URLs zur Folge haben.

  • Sortierparameter. Einige große Einkaufswebsites bieten mehrere Möglichkeiten zum Sortieren derselben Artikel an, was zu einer deutlich größeren Anzahl von URLs führt. Beispiel:
    http://www.ihremusterdomain.de/results?search_type=search_videos&search_query=tpb&search_sort=relevance
       &search_category=25
  • Irrelevante Parameter in der URL, z. B. Verweisparameter. Beispiel:
    http://www.example.com/search/noheaders?click=6EE2BF1AF6A3D705D5561B7C3564D9C2&clickPage=
       OPD+Product+Page&cat=79
    http://www.example.com/discuss/showthread.php?referrerid=249406&threadid=535913
    http://www.example.com/products/products.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessories.

  • Kalenderprobleme: Ein dynamisch erstellter Kalender könnte Links zu Terminen in der Zukunft oder der Vergangenheit ohne Einschränkungen der Anfangs- oder Endzeiten generieren. Beispiel:
    http://www.ihremusterdomain.de/calendar.php?d=13&m=8&y=2011
    http://www.example.com/calendar/cgi?2008&month=jan

  • Fehlerhafte relative Links: Fehlerhafte relative Links können häufig zu unendlichen Bereichen führen. Dieses Problem entsteht meist aufgrund wiederholter Pfadelemente. Beispiel:
    http://www.ihremusterdomain.de/index.shtml/discuss/category/school/061121/html/interview/
      category/health/070223/html/category/business/070302/html/category/community/070413/html/FAQ.htm



  •  
  •  
Schritte zur Lösung dieses Problems

Zur Vermeidung potenzieller Probleme mit der URL-Struktur empfehlen wir Folgendes:

  • Verwenden Sie eine robots.txt-Datei, um den Zugriff des Googlebots auf problematische URLs zu blockieren. Blockieren Sie dynamische URLs, z. B. URLs, die Suchergebnisse generieren, oder URLs, die unendliche Bereiche generieren, wie beispielsweise Kalender. Reguläre Ausdrücke in Ihrer robots.txt-Datei ermöglichen Ihnen, eine große Zahl von URLs problemlos zu blockieren.

  • Vermeiden Sie nach Möglichkeit Sitzungs-IDs in URLs. Verwenden Sie stattdessen Cookies. In den Richtlinien für Webmaster erhalten Sie weitere Informationen.

  • Kürzen Sie URLs nach Möglichkeit, indem Sie nicht erforderliche Parameter weglassen.

  • Falls Ihre Website einen unendlichen Kalender aufweist, fügen Sie Links zu dynamisch erstellten zukünftigen Kalenderseiten ein nofollow-Attribut hinzu.

  • Überprüfen Sie Ihre Website auf fehlerhafte Links.