Fehler durch nicht erreichbare URL

Bei dem Versuch, auf diese URL zuzugreifen, hat Google einen Fehler festgestellt. Möglicherweise ist ein DNS-Fehler oder eine Zeitüberschreitung aufgetreten. Ihr Server könnte inaktiv oder überlastet gewesen sein, als wir versucht haben, auf die Seite zuzugreifen. Zu den möglichen Fehlern durch nicht erreichbare URLs zählen:

Fehler 5xx Eine vollständige Liste dieser Statuscodes finden Sie unter RFC 2616. Die Ursache für diesen Fehler ist wahrscheinlich ein interner Serverfehler oder ein Fehler aufgrund einer Serverüberlastung. Wenn der Server überlastet ist, hat er möglicherweise einen Status der Überlastung zurückgegeben, um den Googlebot aufzufordern, die Website langsamer zu crawlen. In diesem Fall kehren wir später zur Website zurück, um zusätzliche Seiten zu crawlen.
Problem mit DNS Bei dem Versuch, auf die Seite zuzugreifen, war keine Kommunikation mit dem DNS-Server möglich. Mögliche Ursache: Ihr Server ist inaktiv oder es liegt ein Problem mit der DNS-Umleitung zu Ihrer Domain vor. Stellen Sie sicher, dass Ihre Domain korrekt aufgelöst wird, und versuchen Sie es erneut.
Datei "robots.txt" nicht erreichbar Vor dem Durchsuchen der Seiten Ihrer Website haben wir versucht, die Datei "robots.txt" zu überprüfen, um sicherzustellen, dass wir keine Seiten durchsuchen, die Sie durch "robots.txt" blockiert haben. Die Datei "robots.txt" war jedoch nicht erreichbar. Wir haben unser Crawling aufgeschoben, um sicherzustellen, dass wir keine in dieser Datei aufgeführten Seiten durchsuchen. In solchen Fällen kehren wir zu einem späteren Zeitpunkt auf Ihre Website zurück und durchsuchen sie, sobald wir die Datei "robots.txt" erreichen können. Beachten Sie, dass sich dies von einer 404-Antwort bei der Suche nach der Datei "robots.txt" unterscheidet. Wenn wir den Fehler 404 erhalten, gehen wir davon aus, dass die Datei "robots.txt" nicht vorhanden ist, und fahren mit dem Crawling fort.
Netzwerk nicht erreichbar Bei dem Versuch, auf die Seite zuzugreifen, ist ein Netzwerkfehler aufgetreten.

Hierzu kann es kommen, wenn der Googlebot beim Anfordern einer Datei von Ihrer Website auf eine Zeitüberschreitung oder einen anderen Netzwerkfehler trifft und die Anforderung aus diesem Grund abbrechen muss. Dies kann eine der folgenden Ursachen haben:

  • Das Laden von Seiten dauert extrem lang, da dynamische Seiten nur sehr langsam reagieren.
  • Das Laden von Seiten dauert extrem lang, weil der Hosting-Server einer Website heruntergefahren, überlastet oder falsch konfiguriert ist.
  • Der Hosting-Server blockiert den Web-Crawler von Google.
  • Ein Problem mit der DNS-Konfiguration
Verbindung konnte nicht aufgebaut werden. Die Verbindung konnte nicht hergestellt werden.
Keine Antwort Der Server hat die Verbindung geschlossen, bevor wir eine Antwort erhalten haben.
Abgeschnittene Antwort Der Server hat die Verbindung geschlossen, bevor wir eine vollständige Antwort erhalten konnten, und der Text der Antwort scheint abgeschnitten zu sein.
Verbindung zurückgewiesen Der Server hat die Verbindung zurückgewiesen.
Abgeschnittene Kopfzeilen Der Server hat die Verbindung geschlossen, bevor vollständige Header gesendet wurden.

War das hilfreich?

Wie können wir die Seite verbessern?

Benötigen Sie weitere Hilfe?

Mögliche weitere Schritte:

true
Neu bei der Search Console?

Sie haben die Search Console noch nie verwendet? Egal, ob Sie Anfänger, SEO-Experte oder Website-Entwickler sind: Beginnen Sie hier.

Suche
Suche löschen
Suche schließen
Hauptmenü
12467531579553182309
true
Suchen in der Hilfe
true
true
true
true
true
83844
false
false