Unerreichbar: robots.txt

Vor dem Crawling der Seiten Ihrer Website haben wir versucht, die robots.txt-Datei zu prüfen, um nicht versehentlich Seiten zu crawlen, die Sie durch diese Datei blockiert haben. Wir haben bei diesem Versuch jedoch eine 5xx-Fehlermeldung (Unerreichbar) erhalten. Das Crawling wurde verschoben, damit keine Seiten aus dieser Datei gecrawlt werden.

Eventuell blockiert Ihr Hostanbieter den Googlebot oder die Firewall ist falsch konfiguriert.

Hinweis: Falls sich der Inhalt der robots.txt-Datei in Ihrem Browser von den von Google gecrawlten Inhalten unterscheidet, wenden Sie sich an Ihren Hostanbieter, um Serverregeln zu entfernen, die je nach User-Agent möglicherweise unterschiedliche robots.txt-Inhalte anzeigen.

War das hilfreich?

Wie können wir die Seite verbessern?

Benötigen Sie weitere Hilfe?

Mögliche weitere Schritte:

true
Neu bei der Search Console?

Sie haben die Search Console noch nie verwendet? Egal, ob Sie Anfänger, SEO-Experte oder Website-Entwickler sind: Beginnen Sie hier.

Suche
Suche löschen
Suche schließen
Hauptmenü
4527066085095473967
true
Suchen in der Hilfe
true
true
true
true
true
83844
false
false