Sie haben bei mindestens einem Ihrer Produkte über das Attribut Bildlink [image_link]
ein Bild eingereicht, das von Google nicht gecrawlt werden kann, weil die Datei „robots.txt“ das Herunterladen des Bildes durch den Google-Crawler verhindert. Bilder spielen bei der Kaufentscheidung von Onlinekunden eine entscheidende Rolle. Deshalb müssen alle Merchant Center-Produkte mit einem Bild versehen sein. Die betroffenen Produkte werden so lange abgelehnt, bis die Bilder gecrawlt werden können.
Bitte aktualisieren Sie die Datei „robots.txt“ auf Ihrem Webserver, damit der Google-Crawler die zur Verfügung gestellten Bilder abrufen kann. In der Regel befindet sich die Datei „robots.txt“ im Stammverzeichnis des Webservers (z. B. http://www.example.com/robots.txt). Damit Google auf Ihre gesamte Website zugreifen kann, muss die Datei „robots.txt“ sowohl dem User-Agent „Googlebot“ (für Webseiten) als auch dem User-Agent „Googlebot-Image“ (für Bilder) das Crawlen Ihrer Website erlauben. Ändern Sie dazu Ihre Datei „robots.txt“ so:
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
Weitere Informationen zur Konfiguration von „robots.txt“
Sie können Ihre aktuelle Konfiguration mit dem URL-Prüftool testen.
Wenn Sie diese Probleme behoben und Ihre Produkte über einen neuen Feedupload oder über die Content API aktualisiert haben, verschwinden die Fehler innerhalb weniger Tage. In diesem Zeitraum können wir prüfen, ob wir die bereitgestellten Bilder crawlen können. Anschließend erscheinen die Produkte wieder in Anzeigen und kostenlosen Einträgen. Um diesen Vorgang zu beschleunigen, können Sie die Crawling-Frequenz von Google erhöhen.