Der Googlebot hat auf Ihrer Website eine extrem hohe Anzahl von URLs entdeckt.

Der Googlebot hat auf Ihrer Website eine extrem hohe Anzahl von URLs entdeckt. Dies kann dazu führen, dass der Googlebot unnötigerweise zahlreiche verschiedene URLs crawlt, die auf identischen oder ähnlichen Content verweisen, oder Teile Ihrer Website crawlt, die nicht dafür vorgesehen sind. Dadurch verbraucht der Googlebot möglicherweise erheblich mehr Bandbreite als nötig oder kann nicht den gesamten Content Ihrer Website indexieren.

Die häufigsten Ursachen dieses Problems
  • Problematische Parameter in der URL. Sitzungs-IDs oder Sortierungsmethoden können beispielsweise ein erhebliches Maß an Duplizierungen und eine größere Anzahl von URLs hervorrufen. Ebenso könnte ein dynamisch erstellter Kalender Links zu Terminen in der Zukunft oder der Vergangenheit ohne Einschränkungen der Anfangs- oder Endzeiten generieren.
  • Kombiniertes Filtern einer Gruppe von Elementen. Viele Websites bieten verschiedene Ansichten derselben Gruppe von Elementen oder Suchergebnissen. Das Kombinieren von Filtern (z. B. Anzeige von Hotels, die am Strand liegen, hundefreundlich sind UND ein Fitnesscenter haben) kann zu einer enormen Anzahl an sich wiederholenden URLs führen.
  • Dynamische Erstellung von Dokumenten als Ergebnis von Zählern, Zeitstempeln oder Werbeanzeigen
  • Fehlerhafte relative Links. Fehlerhafte relative Links können häufig zu unendlichen Bereichen führen. Dieses Problem entsteht meist aufgrund wiederholter Pfadelemente. Beispiel:
    http://www.example.com/index.shtml/forum/kategorie/schule/061121/html/interview/kategorie/gesundheit/070223/html/kategorie/unternehmen/070302/html/kategorie/community/070413/html/FAQ.htm
Schritte zur Lösung dieses Problems

Zur Vermeidung potenzieller Probleme mit der URL-Struktur empfehlen wir Folgendes:

  • Kürzen Sie URLs nach Möglichkeit, indem Sie nicht erforderliche Parameter weglassen. Nutzen Sie das Tool zur Parameterbehandlung, um anzugeben, welche URL-Paramater Google problemlos ignorieren kann. Achten Sie darauf, diese einwandfreien URLs für alle internen Links zu verwenden. Es könnte sinnvoll sein, unnötig lange URLs zu ihren bereinigten Versionen weiterzuleiten oder das Linkelement rel="canonical" zu verwenden, um die bevorzugte und kürzere, kanonische URL anzugeben.
  • Vermeiden Sie nach Möglichkeit Sitzungs-IDs in URLs. Verwenden Sie stattdessen Cookies. In den Richtlinien für Webmaster erhalten Sie weitere Informationen.
  • Falls Ihre Website einen unendlichen Kalender hat, fügen Sie zu Links zu dynamisch erstellten zukünftigen Kalenderseiten ein nofollow-Attribut hinzu.
  • Überprüfen Sie Ihre Website auf fehlerhafte Links.
  • Falls die oben genannten Lösungen nicht durchführbar sind, können Sie eine robots.txt-Datei verwenden, um den Zugriff des Googlebot auf problematische URLs zu blockieren. Blockieren Sie dynamische URLs, z. B. URLs, die Suchergebnisse generieren, oder URLs, die unendliche Bereiche generieren, wie beispielsweise Kalender. Mithilfe von Platzhaltern in Ihrer robots.txt-Datei können Sie problemlos eine große Zahl von URLs blockieren.
War das hilfreich?
Wie können wir die Seite verbessern?