Vor Kurzem haben wir den neuen Bereich Meine AdSense-Seite eingeführt. Dort finden Sie kontospezifische Informationen, die Ihnen dabei helfen, AdSense optimal zu nutzen.

Inventarverwaltung

Achten Sie darauf, dass Ihre ads.txt-Dateien gecrawlt werden können

Der Google-Crawler muss auf Ihre ads.txt-Datei zugreifen können. Sobald Sie eine ads.txt-Datei erstellt und für Ihre Stammdomain eingerichtet haben, wird der Crawler von Google:

  • versuchen, die Datei zu crawlen.
  • den Inhalt der Datei analysieren, um die Verkäufer-IDs zu ermitteln, die berechtigt sind, Ihr Inventar zu monetarisieren.
Hinweis: Es kann einige Tage dauern, bis Änderungen an der ads.txt-Datei in AdSense Wirkung zeigen. Wenn Ihre Website nicht viele Anzeigenanfragen stellt, kann es auch bis zu einem Monat dauern.

Probleme beim Crawling von ads.txt-Dateien beheben

Damit Ihre ads.txt-Datei zuverlässig gecrawlt werden kann, sollten Sie die folgenden Voraussetzungen überprüfen.

Erweiterter Content (Für fortgeschrittene Nutzer)  Die genannten Punkte erfordern ein Verständnis von HTTP-Statuscodes und sollten daher von fortgeschrittenen Nutzern geprüft werden.

Die Datei muss dauerhaft verfügbar sein

Wenn eine bereits bekannte ads.txt-Datei bei einem späteren Crawling nicht mehr verfügbar ist, werden die vorhandenen Einträge:

  • gelöscht, sofern es sich bei der Antwort um einen nicht behebbaren 404-Fehler handelt (eine Seite, die tatsächlich nicht existiert; HTTP 404-Status),
  • bis zu fünf Tage aufbewahrt, wenn es sich um einen behebbaren 404-Fehler (eine vorhandene Seite hat eine URL übergeben, die es nicht gibt; HTTP 200-Status) oder einen HTTP 500-Serverfehler handelt.

Die Datei muss von der Stammdomain aus erreichbar sein

Weiterleitungen von domain.com/ads.txt auf www.domain.com/ads.txt sind recht weitverbreitet. Das Crawling von ads.txt beginnt in der Stammdomain und diese muss wieder von der Datei ads.txt zurückverweisen oder auf diese weiterleiten.

Eine ads.txt-Datei unter www.domain.com/ads.txt wird nur gecrawlt, wenn domain.com/ads.txt darauf weiterleitet.

Die Datei robots.txt darf das Crawling nicht verbieten

Die ads.txt-Datei einer Domain wird von den Crawlern ignoriert, wenn laut der Datei robots.txt für die Domain Folgendes unzulässig ist:

  • das Crawlen des URL-Pfads, in dem sich die Datei ads.txt befindet und
  • der User-Agent des Crawlers.
Beispiel: Crawling ist für den Dateipfad von ads.txt nicht zulässig

Für example1.com:

  1. Unter example1.com/ads.txt wird eine ads.txt-Datei veröffentlicht.
  2. Der example1.com/robots.txt werden folgende Zeilen hinzugefügt:
    User-Agent: *
    Disallow: /ads
  3. Crawler, die gemäß dem robots.txt-Standard arbeiten, ignorieren die ads.txt-Datei.
  4. Sie können die robots.txt-Datei folgendermaßen ändern, um das Crawlen der Datei zu ermöglichen (andere Vorgehensweisen sind möglich):
    • Option 1: den unzulässigen Pfad ändern.
      User-Agent: *
      Disallow: /ads/
    • Option 2: die Datei ads.txt explizit zulassen; hängt davon ab, ob der Crawler die robots.txt-Anweisung Allow unterstützt.
      User-Agent: *
      Allow: /ads.txt
      Disallow: /ads
Beispiel: Crawling ist für den User-Agent nicht zulässig

Für example2.com:

  1. Unter example2.com/ads.txt wird eine ads.txt-Datei veröffentlicht.
  2. Der example2.com/robots.txt werden folgende Zeilen hinzugefügt:
    User-Agent: Googlebot
    Disallow: /
  3. Die Datei ads.txt wird vom Google-Crawler ignoriert.

Die Datei sollte den Statuscode "HTTP 200 OK" aufweisen

Ein Request der ads.txt-Datei kann den Dateiinhalt im Antworttext zurückgeben. Wenn der Statuscode im Antwort-Header jedoch anzeigt, dass die Datei nicht gefunden wurde (z. B. Statuscode 404), dann:

  • wird die Antwort ignoriert und
  • wird die Datei als nicht vorhanden angesehen.

Achten Sie daher darauf, dass für die Datei der Statuscode "HTTP 200 OK" zurückgegeben wird.

Die Datei darf keine Formatierungsfehler oder ungültigen Zeichen enthalten

Formatierungsfehler, z. B. ungültige Leerzeichen, sind möglicherweise schwer zu erkennen, können jedoch die Analyse einer ads.txt-Datei durch einen Crawler erschweren und dazu führen, dass eine Datei ignoriert wird. Verwenden Sie keinen Rich-Text-Editor zum Kopieren und Einfügen von ads.txt-Einträgen. Wir empfehlen einen einfachen Texteditor. Alternativ können Sie in Ihrer ads.txt-Datei auch mit einem HEX-Editor nach ungültigen UTF-8-Zeichen suchen.

Die ads.txt-Datei sollte über HTTP und HTTPS erreichbar sein

Der Google-Crawler versucht, alle ads.txt-Dateien sowohl unter HTTP als auch unter HTTPS zu crawlen. Eine 404-Antwort (oder 40x-) führt jedoch dazu, dass zuvor gecrawlte Einträge gelöscht werden, obwohl die ads.txt-Datei über HTTP gecrawlt wird. Wenn beim Crawlen über HTTPS also ein 404-Fehler (oder 40x) zurückgegeben wird:

  • wird der zuvor gecrawlte Eintrag gelöscht.

Sie sollten deshalb dafür sorgen, dass der Zugriff auf die ads.txt-Datei sowohl über HTTP als auch über HTTPS möglich ist.

War das hilfreich?
Wie können wir die Seite verbessern?

Benötigen Sie weitere Hilfe?

Anmelden, um weitere Supportoptionen zu erhalten und das Problem schnell zu beheben

true
' data-mime-type=
Meine AdSense-Seite

Jetzt neu: „Meine AdSense-Seite“ – hier finden Sie wichtige kontospezifische Informationen und aktuelle Empfehlungen, wie Sie AdSense optimal nutzen können.

Suche
Suche löschen
Suche schließen
Google-Apps
Hauptmenü
Suchen in der Hilfe
true
157
false