Display & Video 360-Tests bieten ein integriertes Testframework, mit dem Sie A/B-Tests für einzelne oder mehrere Creatives, Zielgruppen, Gebotsstrategien oder Targeting-Einstellungen ausführen können. Dabei werden Anzeigenaufträge oder Werbebuchungen miteinander vergleichen.
Sie können Nutzer auf sich gegenseitig ausschließende Gruppen und Tests aufteilen, um verschiedene Kombinationen für das Targeting, für Einstellungen und für Creatives zu testen und herauszufinden, mit welcher Kombination Sie die beste Leistung erzielen. Nutzen Sie die Ergebnisse, um die Leistung derzeit aktiver oder zukünftig geplanter Kampagnen zu optimieren.
Tests ermöglichen Ihnen Folgendes:
- Sie haben die Möglichkeit, jede veränderbare Dimension zu testen, die sich auf eine Kampagne auswirkt, etwa das Targeting, die Einstellungen und die Creatives.
- Sie können Berichte mit wichtigen Messwerten erstellen, etwa Cost-per-Click (CPC), Klickrate (Click-through-Rate, CTR), Cost-per-Action (CPA), Conversion-Rate (CVR) und Cost-per-1000-Impressions (CPM).
Nutzerbasierte Identifikation
In Display & Video 360 werden nutzerbasierte IDs verwendet, die dabei helfen, Ihre Tests an die Drittanbietereinstellung anzupassen. Dabei kommen Back-up-IDs für die Umleitung zum Einsatz, wenn keine Drittanbieter-ID verfügbar ist. So steigt die Wahrscheinlichkeit, dass eine ID für eine Anzeigenimpression zur Verfügung steht.
Standardmäßig werden bei Tests die nutzerbasierte Identifikation und die zufällige Umleitung verwendet, um die Teilnahme zu maximieren. Sie können nicht identifizierte Nutzer ausschließen, indem Sie den Traffic ohne Drittanbieter-IDs filtern, um verzweigungsübergreifende Ungenauigkeiten zu reduzieren. Die Anzahl der Nutzer, die an Ihrem Test teilnehmen, würde jedoch sinken.
Konzepte
Tatsächliche Werte: Die Ergebnisse des Tests als Rohdaten. Mit den tatsächlichen Werten wird die Anzahl der Conversions angegeben, die über die Variante erzielt wurden.
Verzweigung: Eine Verzweigung kann Folgendes enthalten:
- Eine einzelne Werbebuchung oder einen einzelnen Anzeigenauftrag
- Mehrere Werbebuchungen oder Anzeigenaufträge
Die ursprüngliche Variante und eine zugehörige Variante sind z. B. separate Verzweigungen im Test.
Ursprüngliche Variante: Die Werbebuchung oder der Anzeigenauftrag, die bzw. der als Standard für die Vergleiche im Test gilt. Sie können Varianten erstellen und sie zu Testzwecken mit der ursprünglichen Variante vergleichen.
Konfidenzintervall: Damit wird angegeben, wie wahrscheinlich es ist, dass der tatsächliche Unterschied zwischen den Varianten im prognostizierten Bereich liegt. Sie können festlegen, dass der tatsächliche Wert mit einer Wahrscheinlichkeit von 90 % oder 95 % innerhalb des prognostizierten Bereichs liegen soll.
Bei einem Konfidenzintervall von 90 % sollten beispielsweise 90 von 100 wiederholten Tests einen Unterschied innerhalb des prognostizierten Bereichs aufweisen.
Normalisierte Werte: Die maximalen Werte für Klicks, Conversions, Impressionen oder Umsatz, die sich durch das Hochrechnen der tatsächlichen Werte der ursprünglichen Variante oder der Variante auf 100 % der Zielgruppen ergeben.
Wenn z. B. für 34 % der Zielgruppe 170.000 Conversions über eine Werbebuchung erzielt wurden, beträgt der normalisierte Wert für 100 % der Zielgruppe 500.000 Conversions.
p-Wert: Entspricht der berechneten Wahrscheinlichkeit, dass der Unterschied zufällig aufgetreten ist.
Mit dem p-Wert wird die statistische Signifikanz des Ergebnisses ermittelt. So erfahren Sie, wie wahrscheinlich es ist, dass es einen echten Leistungsunterschied zwischen der ursprünglichen Variante und der Variante gibt:
- Ein geringer p-Wert weist darauf hin, dass ein Leistungsunterschied sehr wahrscheinlich ist und signifikante Ergebnisse vorliegen.
- Ein hoher p-Wert weist darauf hin, dass die Unterschiede in den Ergebnissen eventuell zufällig aufgetreten sind, d. h. die Ergebnisse sind nicht signifikant.
Variante: Eine Werbebuchung oder ein Anzeigenauftrag, die bzw. der für den Test erstellt wird und bei dem sich eine Variable von der ursprünglichen Variante unterscheidet
A/B-Test einrichten
- Rufen Sie einen Werbetreibenden auf und klicken Sie im Menü auf der linken Seite auf Tests.
- Wählen Sie auf dem Tab A/B-Tests die Option Neu erstellen aus.
- Wählen Sie eine der folgenden Optionen aus:
- Plattformübergreifend
- YouTube und Partner
- Geben Sie die folgenden Informationen ein:
- Name: Geben Sie eine Kennung für den Test und optional eine Hypothesenbeschreibung ein.
-
Testzeitraum: Start- und Enddatum
- Startdatum: Geben Sie an, wann der Test beginnen soll. Das Datum muss nach dem aktuellen Datum liegen.
- Enddatum: Sie können auch ein Enddatum für den Test festlegen. Wenn Sie kein Enddatum angeben, wird der Test auf unbestimmte Zeit ausgeführt.
- Tipp: Wenn möglich sollten die Angaben für Start- und Enddatum des Tests mit denen für den Anzeigenauftrag oder die Werbebuchung im Test übereinstimmen. Wenn Sie beispielsweise einen Test vor dem Enddatum des Anzeigenauftrags oder der Werbebuchung beenden, wird die Zielgruppe nicht mehr auf die verschiedenen Varianten verteilt und alle Nutzer sehen nur noch die ursprüngliche Variante. Die Messwerte für einen Test basieren ausschließlich auf den Impressionen, die nach dem Startdatum des Tests erzielt wurden. In Berichten sehen Sie möglicherweise eine abweichende Anzahl von Conversions, falls die Werbebuchung auch vor oder nach dem Test aktiv war.
-
Testverzweigungen: Legen Sie fest, ob Anzeigenaufträge oder Werbebuchungen verglichen werden sollen.
-
Wählen Sie je nach Testtyp mindestens zwei Anzeigenaufträge oder Werbebuchungen für den Test aus.
- Einzeln vergleichen: Legen Sie die einzelnen Anzeigenaufträge fest, die Sie in den Test aufnehmen möchten.
- Wenn Sie mehrere Anzeigenaufträge verwenden, können Sie die Zielgruppenaufteilung anpassen. Damit legen Sie fest, wie die Cookies im Test zwischen den Anzeigenaufträgen und Werbebuchungen verteilt werden.
- Bei mehreren Anzeigenaufträgen können Sie eine Kontrollverzweigung angeben, indem Sie den gewünschten Anzeigenauftrag als ursprüngliche Variante festlegen.
- Gruppen vergleichen: Wählen Sie mehrere Anzeigenaufträge aus, die Sie in die einzelnen Verzweigungen des Tests aufnehmen möchten.
- Sie können die Zielgruppenaufteilung anpassen, um festzulegen, wie die Cookies im Test zwischen den Anzeigenaufträgen und Werbebuchungen verteilt werden.
- Sie haben die Möglichkeit, eine Kontrollverzweigung anzugeben, indem Sie den gewünschten Anzeigenauftrag als ursprüngliche Variante festlegen.
- Einzeln vergleichen: Legen Sie die einzelnen Anzeigenaufträge fest, die Sie in den Test aufnehmen möchten.
-
-
Messen:
- Rechercheziel: Wählen Sie ein Ziel aus, das im Test gemessen werden soll.
- Conversions
- Klicks
- Abgeschlossene Videoaufrufe
- Benutzerdefinierter Gesamtwert der Impressionen (nur bei benutzerdefinierten Geboten)
- Konfidenzintervall: Wählen Sie 95 % (wird am häufigsten verwendet) oder 90 % aus.
- Teilnahme (nur plattformübergreifende Tests): Diese Option ist standardmäßig so eingestellt, dass die Teilnahme am Test maximiert wird, indem Kennungen auf Nutzerebene und zufällige Umleitung verwendet werden.
- Sie haben die Möglichkeit, Nicht identifizierte Nutzer ausschließen zu aktivieren, um Traffic ohne Drittanbieter-IDs auszuschließen und so verzweigungsübergreifende Ungenauigkeiten zu minimieren.
- Hinweis: Wenn Sie nicht identifizierte Nutzer ausschließen, kann der Test aufgrund der geringeren Teilnahme nicht repräsentativ sein.
- Sie haben die Möglichkeit, Nicht identifizierte Nutzer ausschließen zu aktivieren, um Traffic ohne Drittanbieter-IDs auszuschließen und so verzweigungsübergreifende Ungenauigkeiten zu minimieren.
- Steigerungsanalyse einrichten (optional und nur für „YouTube und Partner“-Tests):
- Klicken Sie das Kästchen für die Anzeigenwirkung auf die Markenbekanntheit an.
- Wählen Sie 1 bis 3 Messwerte für die Anzeigenwirkung auf die Markenbekanntheit aus. In der linken Seitenleiste sehen Sie die Voraussetzungen für die Messung der Steigerung und ob Ihre Testverzweigungen die Voraussetzungen erfüllen. Weitere Informationen zum Einrichten der Analyse der Anzeigenwirkung auf die Markenbekanntheit
- Geben Sie die folgenden Umfragedetails ein:
- Name Ihrer Marke oder Ihres Produkts
- Bis zu drei Namen von konkurrierenden Marken oder Produkten.
- Geben Sie die folgenden Umfrageeinstellungen ein:
- Sprache: Die Sprache, die für die Umfrage verwendet werden soll.
- Objekttyp: Die Branche oder den Bereich, zu dem Sie eine Umfrage durchführen möchten.
- Gewünschte Aktion: Was Nutzern tun sollen, nachdem sie Ihre Anzeige gesehen haben.
- Hinweis: Die Mindestbudgets müssen für jede Testverzweigung eingehalten werden. Das Budget wird zwar für alle Kampagnen in einer Testverzweigung zusammengefasst, auf Studienebene muss aber für jede Testverzweigung ein ausreichendes Budget vorhanden sein.
- Rechercheziel: Wählen Sie ein Ziel aus, das im Test gemessen werden soll.
-
Klicken Sie auf Speichern.
Ergebnisse eines Tests auswerten
- Rufen Sie den gewünschten Werbetreibenden auf.
- Klicken Sie im Menü auf der linken Seite auf Tests.
- Wählen Sie auf dem Tab A/B-Tests einen Namen für die Studie aus, um die Ergebnisse eines Tests aufzurufen.
- Wenn Sie dem Test eine Studie zur Anzeigenwirkung auf die Markenbekanntheit zugeordnet haben, klicken Sie in der Spalte „Bericht zum Anstieg“ des gewünschten Tests auf Bericht ansehen.
- Auf dem Tab „Bericht zur Anzeigenwirkung auf die Markenbekanntheit“ sehen Sie die Zusammenfassung des Berichts.
- Klicken Sie auf der Seite Tests auf dem Tab A/B-Tests unter „Aktionen“ auf die Schaltfläche Bericht ansehen.
- Klicken Sie rechts auf das Downloadsymbol
, um den Bericht zum Test herunterzuladen.
Unterschiede in einem Test aufrufen
Öffnen Sie den Tab Unterschiede und sehen Sie sich die Unterschiede zwischen den verschiedenen Testversionen an. So können Sie feststellen, ob der einzige Unterschied die Variable ist, für die Sie den Test ausführen. Sie haben die Möglichkeit, Unterschiede vor dem Testen zu beseitigen, sodass die Ergebnisse möglichst nicht verzerrt oder irrelevant sind. Wenn Variantengruppen mehrere Werbebuchungen umfassen, werden die Vergleiche basierend auf der minimalen Anzahl von erkannten Unterschieden automatisch in Display & Video 360 abgeglichen.
Das Tool zum Messen von Unterschieden ist für die Verwendung während des QA-Prozesses vorgesehen und kann nicht rückwirkend eingesetzt werden. Mit dem Tool werden Werbebuchungen und Anzeigenaufträge verglichen. Dabei werden die aktuellen Einstellungen und nicht die Einstellungen zum Zeitpunkt des Tests berücksichtigt. Es spiegeln sich also alle Änderungen wider, die Sie nach dem Test vorgenommen haben, wenn Sie z. B. Werbebuchungen archiviert haben, auch wenn die Änderungen keine Auswirkungen auf den Test hatten.
Best Practices
Beim Planen eines Tests sollten Sie folgende Punkte beachten.
Planung und Einrichtung
-
Testen Sie jeweils immer nur eine Variable: Alle Verzweigungen des Tests (ursprüngliche Variante und alle anderen Varianten) sollten identisch sein – bis auf die eine Variable, die Sie testen.
-
Erstellen Sie die Anzeigenaufträge oder Werbebuchungen für Ihre Tests nicht jedes Mal neu, sondern duplizieren Sie sie. So lässt sich einfacher sicherstellen, dass die Elemente in Ihren Tests identisch sind – mit Ausnahme der einen zu testenden Variablen.
-
Verwenden Sie in Ihren Tests ausschließlich neue Anzeigenaufträge oder Werbebuchungen: Wenn ein Anzeigenauftrag oder eine Werbebuchung vorher außerhalb des Tests aktiv war, kann sich das auf die Conversion-Zählung auswirken.
-
Fremdeinflüsse ausschließen: Ihre Werbebuchungen außerhalb des Tests dürfen nicht mit den Budgets der Werbebuchungen konkurrieren, die zum Test gehören. Verwenden Sie für alle Werbebuchungen, die Teil eines bestimmten Tests sind, nach Möglichkeit einen eigenen Anzeigenauftrag.
Außerdem sollten in Tests genutzte Creatives nicht auch anderweitig verwendet werden.
-
Legen Sie den Wert für das Frequency Capping ausreichend hoch fest. Wenn Sie im Test Anzeigenaufträge verwenden, sollten Sie für das Frequency Capping der Kampagne einen Wert festlegen, der mindestens so hoch ist wie die Summe aus dem höchsten Frequency Capping-Wert aller Anzeigenaufträge, die am Test teilnehmen, und der entsprechenden Werte der Anzeigenaufträge, die nicht im Test verwendet werden.
Beispiel: Ihre Kampagne enthält drei Anzeigenaufträge, aber nur zwei davon sind Teil des Tests. Den minimalen Frequency Capping-Wert für die Kampagne bestimmen Sie so: Addieren Sie den höchsten Frequency Capping-Wert der beiden teilnehmenden Anzeigenaufträge zum entsprechenden Wert des Anzeigenauftrags, der nicht im Test verwendet wird. Wenn also für die Anzeigenaufträge im Test beispielsweise die Werte 10 und 8 festgelegt sind und dem dritten Anzeigenauftrag, der nicht Teil des Tests ist, der Wert 5 zugewiesen ist, sollte die Kampagne den Frequency Capping-Wert 15 haben. Um dieses Ergebnis zu erhalten, addieren Sie den höchsten Frequency Capping-Wert aller Anzeigenaufträge des Tests (10) zur Summe aller Frequency Capping-Werte der restlichen Anzeigenaufträge in der Kampagne, die nicht am Test teilnehmen (5).
Diese Best Practice gilt auch für das Frequency Capping auf Anzeigenauftragsebene, wenn beim Test Werbebuchungen miteinander verglichen werden.
-
Planen Sie das Budget und die Budgetabstufung genau. Für jede Verzweigung des Tests sollte das Budget proportional zur entsprechenden Zielgruppenaufteilung festgelegt werden. Falls Sie das Budget anders (nicht proportional) zuweisen, wird es zu einer Testvariablen. Die Budgetabstufung sollte die gleiche sein, sonst wird auch sie zu einer Testvariablen. Diese Best Practice sollte nicht nur für die Werbebuchungen innerhalb eines Tests umgesetzt werden, sondern auch für andere Werbebuchungen, die nicht Teil des Tests sind, aber zum gleichen Anzeigenauftrag gehören. Die Budgetabstufung und die Möglichkeit, das Budget auszugeben, wirken sich darauf aus, wie mit den Werbebuchungen beim Test Inventar gekauft wird, was wiederum die Ergebnisse beeinflusst.
-
Vorsicht bei begrenzter Reichweite: Wenn die Reichweite relativ eingeschränkt ist (z. B. beim Kauf von Deal- oder Zielgruppeninventar mit begrenzter Reichweite), sind die Konfidenzintervalle bei Tests eventuell relativ groß. Dies kann die Beurteilung der Effizienz Ihrer Varianten erschweren.
-
Legen Sie alle Details mit ausreichender Vorlaufzeit fest.: Sie sollten vor Beginn des Tests genügend Zeit für die Genehmigung aller Creatives einplanen.
Während des Tests
-
Pausieren Sie den Test nicht: Falls Sie eine Kampagne vorübergehend pausieren möchten, der Test jedoch fortgesetzt werden soll, pausieren Sie alle Testverzweigungen, aber nicht den Test selbst. Wenn Sie die Kampagne dann wieder fortsetzen, aktivieren Sie alle Gruppen gleichzeitig.
Wenn Sie einen Test beenden, kann er nicht wieder gestartet werden. Außerdem werden alle Elemente, die dem Test zugewiesen sind, wieder für 100 % Ihrer Nutzer ausgeliefert. -
Nehmen Sie einheitliche Änderungen vor: Wenn Sie während eines Tests Änderungen an Ihren Anzeigenaufträgen oder Werbebuchungen vornehmen möchten, müssen Sie dieselbe Änderung auf alle Verzweigungen des Tests anwenden. Das ist beispielsweise der Fall, wenn Sie eine Website aufgrund der Markeneignung entfernen müssen.
Hinweise
- Für folgende Inventartypen sind keine Tests möglich:
- Programmatisch garantierte Standardwerbebuchungen oder Anzeigenaufträge mit Standardwerbebuchungen
- Inventar für Direktreservierung
- Zwischen Einrichtung und Start eines Tests müssen 24 Stunden liegen. Der aktuelle oder nachfolgende Tag kann nicht als Startdatum ausgewählt werden.
- Eine Werbebuchung oder ein Anzeigenauftrag kann jeweils nur in einem aktiven Test verwendet werden.
- Nach Beginn eines Tests können Sie die Prozentsätze für die Zielgruppenaufteilung nicht mehr ändern.
- Das Testframework erkennt derzeit keine geräteübergreifenden Aufrufe. Daher kann es vorkommen, dass ein Nutzer auf seinem Mobilgerät eine Variante und auf seinem Computer die ursprüngliche Variante sieht.
- Die Anzahl der erfassten Conversions unterscheidet sich möglicherweise zwischen Tests und Berichten, so zum Beispiel auch bei den Messwerten in den Tabellen. Das liegt daran, dass für die im Rahmen von Tests erfassten Messwerte nur die Impressionen berücksichtigt werden, die während des Tests erzielt wurden.
- Bei Steigerungsanalysen, die in A/B-Tests erstellt wurden, sind erneute Messungen nicht möglich. Wenn Sie die Anzeigenwirkung auf die Markenbekanntheit noch einmal messen möchten, müssen Sie den Test beenden, den Anzeigenauftrag aus der Brand Lift-Studie entfernen und auf dem Tab „Steigerunganalysen“ eine neue Brand Lift-Studie erstellen.
Häufig gestellte Fragen
Was ist der Unterschied zwischen dem Targeting gemäß Zielgruppensegmentierung in Campaign Manager 360 und Tests in Display & Video 360?
Beim Targeting gemäß Zielgruppensegmentierung in Campaign Manager 360 wird der Traffic auf verschiedene Creatives aufgeteilt. Sie können dabei beispielsweise den Traffic einer Campaign Manager 360-Kampagne in verschiedene Nutzergruppen aufteilen und für jedes Segment ein anderes Creative trafficken.
Mit Tests in Display & Video 360 können Sie den Traffic auf Ebene eines Anzeigenauftrags oder einer Werbebuchung aufteilen und so jede Einstellung und alle für das Targeting verfügbaren Dimensionen und nicht nur die Creatives im Ganzen testen.
Warum kann ich meinem Test einen bestimmten Anzeigenauftrag oder eine bestimmte Werbebuchung nicht hinzufügen?
Wenn Sie einen Test einrichten, werden Anzeigenaufträge und Werbebuchungen, die nicht für den Test zur Verfügung stehen, ausgeblendet bzw. als nicht auswählbar angezeigt.
Über die Kurzinfo erfahren Sie, warum es nicht möglich ist, einen bestimmten Anzeigenauftrag oder eine bestimmte Werbebuchung in den Test aufzunehmen.
Was ist der Unterschied zwischen Google Optimize und Tests in Display & Video 360?
Tests in Display & Video 360 dienen dazu, die Strategien von Werbekampagnen, z. B. Targeting und Einstellungen, zu vergleichen. Google Optimize ist hingegen auf Vergleiche verschiedener Websites oder Landingpages ausgelegt.
Für Tests in Display & Video 360 wird ein frequentistisches Modell verwendet, das dem der meisten anderen Lösungen zur Leistungsmessung von Werbung ähnelt. Bei Google Optimize findet hingegen ein bayessches Modell Anwendung, das sich besser für Szenarien mit geringer Stichprobengröße eignet.