A/B-Test für native Designs erstellen

Maximieren Sie die Leistung nativer Anzeigen, indem Sie A/B-Tests für die verschiedenen nativen Designs ausführen. Testen Sie vor weiteren Änderungen die visuellen Elemente und andere Aktualisierungen zweier Designs, um zu ermitteln, mit welchem Sie eine bessere Leistung erzielen.

Das funktioniert so: Das ursprüngliche Design, das Sie mit dem neuen vergleichen möchten, ist das Kontrolldesign bzw. die Kontrollgruppe. Das neue Design dient als Testdesign bzw. Testgruppe. Sie aktualisieren die Einstellungen der Testgruppe und versuchen so, die Leistung im Vergleich zum Design der Kontrollgruppe zu verbessern. Anschließend können Sie die Leistung der beiden Designs analysieren und entscheiden, welche Einstellungen Sie künftig verwenden möchten.

Mithilfe von nativen Tests können nur zwei native Designs in vorhandenen nativen Placements verglichen werden. Es ist nicht möglich, Banner- und native Anzeigen zu vergleichen, die in demselben Anzeigen-Placement ausgeliefert werden.

Wenn ein Test auf ein natives Kontrolldesign ausgerichtet ist, dem sowohl programmatischer als auch traditioneller Traffic zugeordnet ist, hat das Einfluss auf den Traffic für Reservierungen.

Test ausführen

  1. Melden Sie sich in Google Ad Manager an.
  2. Klicken Sie auf Auslieferung und dann Nativ.
  3. Klicken Sie in der Tabelle auf das native Design, das die folgenden beiden Bedingungen erfüllt:
    • In der Spalte "Format" muss entweder "Native Contentanzeige", "Native App-Installationsanzeige", "Native Videocontentanzeige" oder "Native Video-App-Installationsanzeiget" angezeigt werden.
    • In der Spalte "Dealeignung" muss "Programmatisch und traditionell" stehen.
  4. Klicken Sie auf der Seite "Native Anzeige gestalten" auf A/B-Test erstellen.
    Daraufhin erscheinen rechts die Einstellungen für den A/B-Test.
  5. Wählen Sie im Drop-down-Menü für das Datum aus, wann der Test ausgeführt werden soll.
  6. Geben Sie unter "Trafficzuordnung" den Prozentsatz der Impressionen ein, die Sie dem Testdesign während des Tests zuordnen möchten. Der Rest entfällt auf das Kontrolldesign.
    • Wenn Sie beispielsweise 60 % der Impressionen dem Testdesign zuordnen, erhält das Kontrolldesign 40 %.
    • Geben Sie 50 % ein, damit die Impressionen zwischen Test- und Kontrolldesign gleichmäßig aufgeteilt werden.
  7. Klicken Sie auf Test und passen Sie das Testdesign für den Test an.
    Nehmen Sie die Änderungen vor, die Ihrer Meinung nach zu einer besseren Leistung der nativen Anzeigen führen.
  8. Klicken Sie auf Weiter, nehmen Sie bei Bedarf Änderungen am Targeting vor und klicken Sie auf Speichern und fertigstellen.
Auf der Seite „Tests“ haben Sie außerdem die Möglichkeit, einen manuellen Test mit nativem Anzeigendesign durchzuführen.

Test analysieren und Maßnahmen ergreifen

Nach einer Laufzeit von zwei Tagen sollten im System genug Testergebnisse vorliegen. Sie können mit dem Prüfen der Daten beginnen und entscheiden, ob Sie zu den Testeinstellungen wechseln möchten.

  1. Klicken Sie auf Auslieferung und dann Nativ.
  2. Klicken Sie in der Tabelle auf das native Design, für das ein Test durchgeführt wird.
    Alle derartigen Designs sind mit dem Label "Test wird ausgeführt" in ihrer Zeile gekennzeichnet.
  3. Daraufhin öffnet sich die Seite "Native Anzeige gestalten". Hier klicken Sie rechts auf Test anzeigen.
  4. Optional: Wenn der Test noch läuft, können Sie ihn anhalten, indem Sie im Drop-down-Menü "Aktiv" auf Pausieren klicken.
    Wenn Sie einen Test pausieren, werden 100 % des Traffics dem nativen Kontrolldesign (Original) zugeordnet.
  5. Optional: Klicken Sie auf Designs als Vorschau ansehen, um die Anzeige im jeweiligen nativen Design aufzurufen.
  6. Werten Sie die Daten aus, um die Leistung der Testgruppe mit der der Kontrollgruppe (Original) zu vergleichen.
    Behalten Sie die Traffic-Zuordnung im Hinterkopf, wenn Sie die Ergebnisse analysieren. Die Zuordnung wird unten links angezeigt.
  7. Nach dem Ende des Tests wird der gesamte Traffic dem nativen Kontrolldesign (Original) zugeordnet. Sie können entscheiden, ob Sie die Einstellungen des Test- oder die des Kontrolldesigns (Original) beibehalten möchten.
    • Variante anwenden: Das native Kontrolldesign wird mit den Einstellungen des Testdesigns aktualisiert.
    • Variante ablehnen: Die Einstellungen des nativen Kontrolldesigns (Original) werden beibehalten.
    Nachdem Sie auf eine dieser Optionen geklickt haben, werden dem Kontrolldesign (Original) 100 % des Traffics zugeordnet und das native Testdesign wird gelöscht.

Testergebnisse auswerten

Für Tests werden die folgenden Messwerte zusammen mit dem Wert "+/- % im Vergleich zur Kontrollgruppe" angezeigt. So können Sie die Leistung der nativen Test- und Kontrolldesigns besser vergleichen.

Beispiel
Ein Wert von "10.000 € ÷ +10 % im Vergleich zur Kontrollgruppe" für "Umsatz aus Test" bedeutet beispielsweise, dass laut Schätzung mit dem Testdesign 10.000 € Umsatz erzielt werden und dieser Wert 10 % höher als der geschätzte Umsatz für das Kontrolldesign (Original) ist.
  • Umsatz aus Test
    Der Nettoumsatz, der über Anzeigenimpressionen erzielt wurde. Korrekturen aufgrund von Anzeigenspam und anderen Faktoren werden dabei berücksichtigt. Hierbei handelt es sich um einen geschätzten Betrag, der sich bei der Überprüfung der Einnahmen am Ende des Monats noch ändern kann.
  • eCPM aus Test
    Mit Anzeigen erzielter Umsatz pro 1.000 Anzeigenimpressionen
    Anzeigen-eCPM = Umsatz ÷ Anzeigenimpressionen × 1.000
  • Test-CTR
    Bei Standardanzeigen ist die Klickrate (Click-through-Rate – CTR) die Anzahl der Anzeigenklicks geteilt durch die Anzahl der Einzelanzeigen-Impressionen in Prozent.
    Test-CTR = Klicks ÷ Anzeigenimpressionen * 100
  • Testabdeckung
    Der Prozentsatz der zurückgegebenen Anzeigen verglichen mit der Anzahl der angeforderten Anzeigen.
    Testabdeckung = Anfragen mit Übereinstimmung ÷ Anzeigenanfragen

War das hilfreich?

Wie können wir die Seite verbessern?
Suche
Suche löschen
Suche schließen
Hauptmenü
4340928098033168759
true
Suchen in der Hilfe
true
true
true
true
true
148
false
false