Schritt 1: Nicht crawlbare URL suchen
Nicht crawlbare Seiten können sich auf drei Arten auf dynamische Suchanzeigen auswirken:
- Sie haben den Ausrichtungstyp
URL stimmt überein mitausgewählt und Ihre URL ist nicht crawlbar: In diesem Fall wird für das dynamische Anzeigenziel eine Meldung angezeigt, dass es abgelehnt wurde, da die Seite nicht crawlbar ist. - Sie verwenden Seitenfeeds und eine URL im Feed ist nicht crawlbar: In diesem Fall wird die Meldung, dass das Ziel abgelehnt wurde, da die Seite nicht crawlbar ist, in der gemeinsam genutzten Bibliothek in der Zeile für diese URL angezeigt.
- Sie verwenden eine andere Ausrichtungsmethode und eine URL wird nicht gecrawlt oder kann nicht gecrawlt werden: In diesem Fall wird keine Fehlermeldung angezeigt, da Google Ads keine Kenntnis davon hat. Wenn eine URL, die Sie als Ausrichtungsziel festgelegt haben, keine Zugriffe erhält, können Sie sie zur Fehlerbehebung zuerst als Ziel für
URL stimmt überein mitoder für Seitenfeeds auswählen. In diesem Fall werden entweder Zugriffe für die URL generiert oder Sie erhalten eine Fehlermeldung, die Aufschluss darüber gibt, warum es keine Zugriffe gibt.
Schritt 2: Sicherstellen, dass der Google Adsbot die Landingpage crawlen kann
- Kopieren Sie die URL und fügen Sie sie in die Adressleiste Ihres Webbrowsers ein.
- Fügen Sie am Ende des Domainnamens
/robots.txtein und drücken Sie dann die Eingabetaste. Lautet Ihre Landingpage beispielsweisehttp://www.example.com/ordner1/ordner2/, überprüfen Sie, welche Robots die Domain crawlen können, indem Sie die URLhttp://www.example.com/robots.txtaufrufen. - Suchen Sie die Zeile
User-agent: Adsbot-Google.- Sollte keine solche Zeile vorhanden sein, wenden Sie sich an den Webentwickler, damit er sie hinzufügt.
- Ist die Seite leer, bitten Sie den Webentwickler, der Domain eine
robots.txt-Datei hinzuzufügen. - Falls die Zeile
User-agent: AdsBot-Googlevorhanden ist, darf die darauffolgende Zeile nichtDisallow: /lauten. Außerdem darf der Google AdsBot nicht durch eine andere Zeile in der Datei eingeschränkt sein. Weitere Informationen zurobots.txt-Dateien und Google-Crawlern
- Wenn es sich bei der Landingpage um eine Subdomain handelt, muss es für diese Subdomain eine eigene
robots.txt-Datei geben, zum Beispielhttps://subdomain.domain.com/robots.txt. Stellen Sie sicher, dass auch in dieserrobots.txt-DateiUser-agent: Adsbot-Googlezugelassen wird. - Öffnen Sie die Quelle der URL. In Chrome geben Sie hierzu
view-source:THE_URLin die Adressleiste ein. Lautet Ihre Landingpage beispielsweisehttp://www.example.com/ordner1/ordner2/, sehen Sie unter der folgenden Adresse, welche Robots die Domain crawlen können:view-source:http://www.example.com/ordner1/ordner2/. - Suchen Sie den String
Adsbot-Google.- Falls dieser nicht vorhanden ist, wird das Problem nicht dadurch verursacht.
- Sollte der String in einem Tag wie
<meta name="Adsbot-Google" content="noindex" />enthalten sein, bitten Sie den Webentwickler, es zu entfernen. Weitere Informationen zu den Meta-Tags, die von Google berücksichtigt werden
Andere mögliche Gründe dafür, dass eine Landingpage nicht crawlbar ist
Falls der Google Adsbot für das Crawlen der Landingpage verwendet werden kann (User-agent: Adsbot-Google ist bereits in der Datei robots.txt der Website enthalten), gibt es möglicherweise einen anderen Grund dafür, dass sich die Seite nicht crawlen lässt:
- Die Landingpage wird nicht geladen: Wenn Sie die Seite in einem Webbrowser öffnen und ein Fehler angezeigt wird, etwa "404 (nicht gefunden)", "Website nicht erreichbar" oder "Ihre Sitzung ist abgelaufen.", wenden Sie sich an den Webentwickler der Website, um sicherzustellen, dass die Landingpage an jedem Standort, in jeder Umgebung (auf Mobilgeräten und Computern) und in jedem Browser geladen werden kann. Außerdem muss die Landingpage sowohl auf Computern als auch auf Mobilgeräten vom Google AdsBot gecrawlt werden können.
- Der Nutzer muss sich auf der Landingpage anmelden: Alle Landingpages von Anzeigen müssen öffentlich zugänglich sein. Verwenden Sie eine andere Landingpage oder bitten Sie den Webentwickler, die Seite so zu ändern, dass keine Anmeldung mehr erforderlich ist.
- Auf der Landingpage sind zu viele Weiterleitungen vorhanden: Landingpages dürfen maximal 10 Weiterleitungen umfassen. Bitten Sie den Webentwickler, die Zahl der Weiterleitungen zu reduzieren.
