Allgemeine Probleme beim Crawlen von Produkten

Wir crawlen Ihre Produktseite und Bilder für Mobilgeräte und Desktops in regelmäßigen Abständen, um die Datenqualität zu überprüfen. Ist dies nicht möglich, können wir Ihre Artikel nicht in Google Shopping anzeigen. Wenn beim Abrufen der Zielseite für Mobilgeräte oder für Desktops Crawling-Fehler auftreten, lehnen wir den Artikel sowohl für Mobilgeräte als auch für Desktops ab, bis wir auf die Zielseite zugreifen können.

Dies sind die häufigsten Gründe für Probleme beim Crawlen von Produkten:

  • Fehler "Seite nicht gefunden (404)": Sie haben eine falsche URL angegeben, die beispielsweise einen Rechtschreibfehler enthält. Daher hat die Seite den Fehler "Seite nicht gefunden (404)" zurückgegeben. Vergewissern Sie sich, dass Sie die URL richtig angegeben haben und Ihre Website online ist.
  • "robots.txt"-Datei des Servers verweigert Zugriff: Sie verwenden auf Ihrem Server eine "robots.txt"-Datei, die verhindert, dass Google die Website crawlen kann. Wir crawlen keine Seiten, deren "robots.txt"-Dateien dies nicht erlauben. Beheben Sie dieses Problem, indem Sie die "robots.txt"-Datei so konfigurieren, dass wir die Seite crawlen können.
  • Ungültige URL: Ihre URL enthält ungültige Zeichen oder liegt im falschen Format vor.

Hinweis: Nachdem Ihr Problem behoben wurde, kann es bis zu 48 Stunden dauern, bis Ihr Produkt wieder in Google Shopping angezeigt wird.

Es gibt einige weitere Probleme, die das Crawlen der Seite durch Google verhindern können.

Häufige Probleme
  • Seite erfordert eine Authentifizierung: Die angegebene URL ist durch ein Authentifizierungsprotokoll geschützt, das verhindert, dass Google auf den Seiteninhalt zugreift.
  • HTTP 4xx-Antwort, HTTP 5xx-Antwort: Der Server, der Ihre Website hostet, hat einen HTTP-Fehler zurückgegeben, aufgrund dessen wir nicht auf den Inhalt zugreifen können.
  • Hostname nicht auflösbar: Wir konnten den Hostnamen Ihres Servers nicht in eine IP-Adresse auflösen und daher nicht auf die Seite zugreifen.
  • Falsch formatierte HTTP-Antwort: Die Antwort Ihres Servers war nicht lesbar.
  • Private IP: Ihre Website wird hinter einer Firewall oder einem Router gehostet. Daher können wir nicht auf sie zugreifen.
  • Netzwerkfehler: Im Netzwerk ist ein Fehler aufgetreten.
  • Zeitüberschreitung beim Lesen der Seite: Der Server benötigt zu lange, um die Seite anzuzeigen. Daher brechen wir das Crawlen dieses Produkts ab.
  • Server leitet zu oft weiter: Ihr Server hat den Crawler mehrere Male weitergeleitet, sodass der Vorgang abgebrochen werden musste.
  • Weiterleitungs-URL zu lang, leer oder falsch: Die von Ihrem Server zurückgegebene Weiterleitungs-URL war ungültig, sodass wir ihr nicht folgen konnten.
  • "Robots.txt"-Datei des Servers nicht erreichbar, Zeitüberschreitung beim Lesen von "robots.txt": Wir konnten Ihre "robots.txt"-Datei nicht lesen und Ihre Seite daher nicht crawlen. Weitere Informationen zum Robots Exclusion Standard finden Sie hier.
War das hilfreich?
Wie können wir die Seite verbessern?