Benachrichtigung

Der Kundensupport bietet keine Fehlerbehebungsdienste in Ihrer aktuellen Anzeigesprache an. Bevor Sie sich an das Supportteam wenden, müssen Sie Englisch oder eine andere unterstützte Sprache (Spanisch, Portugiesisch oder Japanisch) festlegen. 

Anzeigentests

Display & Video 360-Tests bieten ein integriertes Testframework, mit dem Sie A/B-Tests für einzelne oder mehrere Creatives, Zielgruppen, Gebotsstrategien oder Targeting-Einstellungen ausführen können. Dabei werden Anzeigenaufträge oder Werbebuchungen miteinander vergleichen.

Sie können Nutzer auf sich gegenseitig ausschließende Gruppen und Tests aufteilen, um verschiedene Kombinationen für das Targeting, für Einstellungen und für Creatives zu testen und herauszufinden, mit welcher Kombination Sie die beste Leistung erzielen. Nutzen Sie die Ergebnisse, um die Leistung derzeit aktiver oder zukünftig geplanter Kampagnen zu optimieren.

Tests ermöglichen Ihnen Folgendes:

  • Sie haben die Möglichkeit, jede veränderbare Dimension zu testen, die sich auf eine Kampagne auswirkt, etwa das Targeting, die Einstellungen und die Creatives.
  • Sie können Berichte mit wichtigen Messwerten erstellen, etwa Cost-per-Click (CPC), Klickrate (Click-through-Rate, CTR), Cost-per-Action (CPA), Conversion-Rate (CVR) und Cost-per-1000-Impressions (CPM).

Nutzerbasierte Identifikation

In Display & Video 360 werden nutzerbasierte IDs verwendet, die dabei helfen, Ihre Tests an die Drittanbietereinstellung anzupassen. Dabei kommen Back-up-IDs für die Umleitung zum Einsatz, wenn keine Drittanbieter-ID verfügbar ist. So steigt die Wahrscheinlichkeit, dass eine ID für eine Anzeigenimpression zur Verfügung steht.

Beispiel:
Wenn keine Drittanbieter-ID verfügbar ist, wird die eigene ID verwendet. Andernfalls wird eine ID auf Suchanfragenebene verwendet.   

Standardmäßig werden bei Tests die nutzerbasierte Identifikation und die zufällige Umleitung verwendet, um die Teilnahme zu maximieren. Sie können nicht identifizierte Nutzer ausschließen, indem Sie den Traffic ohne Drittanbieter-IDs filtern, um verzweigungsübergreifende Ungenauigkeiten zu reduzieren. Die Anzahl der Nutzer, die an Ihrem Test teilnehmen, würde jedoch sinken. 

Konzepte

Tatsächliche Werte

Die Ergebnisse des Tests als Rohdaten. Mit den tatsächlichen Werten wird die Anzahl der Conversions angegeben, die über die Variante erzielt wurden.

Testverzweigung

Eine Verzweigung kann Folgendes enthalten:

  • Eine einzelne Werbebuchung oder einen einzelnen Anzeigenauftrag
  • Mehrere Werbebuchungen oder Anzeigenaufträge

Die ursprüngliche Variante und eine zugehörige Variante sind z. B. separate Verzweigungen im Test.

Ursprüngliche Variante

Die Werbebuchung oder der Anzeigenauftrag, die bzw. der als Standard für die Vergleiche im Test gilt. Sie können Varianten erstellen und sie zu Testzwecken mit der ursprünglichen Variante vergleichen.

Konfidenzintervall

Damit wird angegeben, wie wahrscheinlich es ist, dass der tatsächliche Unterschied zwischen den Varianten im prognostizierten Bereich liegt. Sie können festlegen, dass der tatsächliche Wert mit einer Wahrscheinlichkeit von 90 % oder 95 % innerhalb des prognostizierten Bereichs liegen soll.

Bei einem Konfidenzintervall von 90 % sollten beispielsweise 90 von 100 wiederholten Tests einen Unterschied innerhalb des prognostizierten Bereichs aufweisen.

Normalisierte Werte

Die maximalen Werte für Klicks, Conversions, Impressionen oder Umsatz, die sich durch das Hochrechnen der tatsächlichen Werte der ursprünglichen Variante oder der Variante auf 100 % der Zielgruppen ergeben.

Wenn z. B. für 34 % der Zielgruppe 170.000 Conversions über eine Werbebuchung erzielt wurden, beträgt der normalisierte Wert für 100 % der Zielgruppe 500.000 Conversions.

p-Wert

Der p-Wert entspricht der berechneten Wahrscheinlichkeit, dass der Unterschied zufällig aufgetreten ist.

Mit dem p-Wert wird die statistische Signifikanz des Ergebnisses ermittelt. So erfahren Sie, wie wahrscheinlich es ist, dass es einen echten Leistungsunterschied zwischen der ursprünglichen Variante und der Variante gibt:

  • Ein geringer p-Wert weist darauf hin, dass ein Leistungsunterschied sehr wahrscheinlich ist und signifikante Ergebnisse vorliegen.
  • Ein hoher p-Wert weist darauf hin, dass die Unterschiede in den Ergebnissen eventuell zufällig aufgetreten sind, d. h. die Ergebnisse sind nicht signifikant.

Variante

Eine Werbebuchung oder ein Anzeigenauftrag, die bzw. der für den Test erstellt wird und bei dem sich eine Variable von der ursprünglichen Variante unterscheidet

Test einrichten

  1. Öffnen Sie den Werbetreibenden und klicken Sie im Menü auf der linken Seite auf Tests.
  2. Wählen Sie auf dem Tab A/B-Tests die Option Neu erstellen aus.
  3. Wählen Sie eine der folgenden Optionen aus:
    • Plattformübergreifend
    • YouTube und Partner
  4. Geben Sie die folgenden Informationen ein:
    1. Name: Geben Sie eine Kennung für den Test und optional eine Hypothesenbeschreibung ein.

    2. Testdauer: Start- und Enddatum: 

      • Startdatum: Geben Sie an, wann der Test beginnen soll. Das Datum muss nach dem aktuellen Datum liegen. 

      • Enddatum: Sie können auch ein Enddatum für den Test festlegen. Wenn Sie kein Enddatum angeben, wird der Test auf unbestimmte Zeit ausgeführt.

        Wenn möglich sollten die Angaben für Start- und Enddatum des Tests mit denen für den Anzeigenauftrag oder die Werbebuchung im Test übereinstimmen.

        Beispiel:

        • Wenn Sie einen Test vor dem Enddatum des Anzeigenauftrags oder der Werbebuchung beenden, wird die Zielgruppe nicht mehr auf die verschiedenen Varianten verteilt und alle Nutzer sehen nur noch die ursprüngliche Variante.

        Die Messwerte für einen Test basieren ausschließlich auf den Impressionen, die nach dem Startdatum des Tests erzielt wurden. In Berichten sehen Sie möglicherweise eine abweichende Anzahl von Conversions, falls die Werbebuchung auch vor oder nach dem Test aktiv war.

    3. Testverzweigungen: Wählen Sie aus, ob Sie Anzeigenaufträge oder Werbebuchungen vergleichen möchten.

      • Wählen Sie je nach Testtyp mindestens zwei Anzeigenaufträge oder Werbebuchungen für den Test aus.

        1. Einzeln vergleichen: Legen Sie die einzelnen Anzeigenaufträge fest, die Sie in den Test aufnehmen möchten.
          • Wenn Sie mehrere Anzeigenaufträge verwenden, können Sie die Zielgruppenaufteilung anpassen. Damit legen Sie fest, wie die Cookies im Test zwischen den Anzeigenaufträgen und Werbebuchungen verteilt werden.
          • Bei mehreren Anzeigenaufträgen können Sie eine Kontrollgruppe angeben, indem Sie den gewünschten Anzeigenauftrag als Ursprüngliche Variante festlegen.
        2. Gruppen vergleichen: Wählen Sie mehrere Anzeigenaufträge aus, die Sie in die einzelnen Verzweigungen des Tests aufnehmen möchten.
          • Sie können die Zielgruppenaufteilung anpassen, um festzulegen, wie die Cookies im Test zwischen den Anzeigenaufträgen und Werbebuchungen verteilt werden.
          • Sie haben die Möglichkeit, eine Kontrollgruppe anzugeben, indem Sie den gewünschten Anzeigenauftrag als Ursprüngliche Variante festlegen.
    4. Messen:

      1. Rechercheziel: Wählen Sie ein Ziel aus, das im Test gemessen werden soll.
        • Conversions
        • Klicks
        • Abgeschlossene Videoaufrufe
        • Benutzerdefinierter Gesamtwert der Impressionen (nur bei benutzerdefinierten Geboten)
      2. Konfidenzintervall: Wählen Sie 95 % (wird am häufigsten verwendet) oder 90 % aus.
      3. Teilnahme (nur plattformübergreifende Tests): Diese Option ist standardmäßig so eingestellt, dass die Teilnahme am Test maximiert wird, indem Kennungen auf Nutzerebene und zufällige Umleitung verwendet werden.
        • Sie haben die Möglichkeit, Nicht identifizierte Nutzer ausschließen zu aktivieren, um Traffic ohne Drittanbieter-IDs auszuschließen und so verzweigungsübergreifende Ungenauigkeiten zu minimieren.
          Hinweis: Wenn Sie nicht identifizierte Nutzer ausschließen, kann der Test aufgrund der geringeren Teilnahme nicht repräsentativ sein.
      4. Steigerungsanalyse einrichten (optional und nur für „YouTube und Partner“-Tests):
        • Klicken Sie das Kästchen „Anzeigenwirkung auf die Markenbekanntheit“ an.
        • Wählen Sie 1 bis 3 Messwerte für die Anzeigenwirkung auf die Markenbekanntheit aus. In der linken Seitenleiste sehen Sie, welche Kriterien für die Analyse der Anzeigenwirkung auf die Markenbekanntheit infrage kommen und ob Ihre Testverzweigungen infrage kommen. Weitere Informationen zum Einrichten der Analyse der Anzeigenwirkung auf die Markenbekanntheit
        • Geben Sie die folgenden Umfragedetails ein:
          • Name Ihrer Marke oder Ihres Produkts
          • Bis zu drei Namen konkurrierender Marken oder Produkte.
        • Geben Sie die folgenden Umfrageeinstellungen ein:
          • Sprache: Die für die Umfrage verwendete Sprache.
          • Objekttyp: Die Branche oder das Fachgebiet, das Sie analysieren möchten.
          • Gewünschte Aktion: Dies ist die Aktion, die Sie von dem Nutzer erwarten, nachdem er Ihre Anzeige gesehen hat.
  5. Klicken Sie auf Speichern.

Ergebnisse eines Tests auswerten

  1. Rufen Sie den gewünschten Werbetreibenden auf.
  2. Klicken Sie im Menü auf der linken Seite auf Tests.
  3. Auf dem Tab A/B-Tests: Klicken Sie auf den Link Name der Studie, um die Ergebnisse eines Tests aufzurufen.
    1. Wenn Sie in einem Test eine Brand Lift-Umfrage einrichten, klicken Sie neben dem Namen der Testverzweigung auf Bericht zur Anzeigenwirkung auf die Markenbekanntheit anzeigen, um die Ergebnisse der Studie zu sehen.
  4. Auf dem Tab Ergebnisse des Tests:

    1. Unter Conversions: primäres Ziel finden Sie eine Zusammenfassung der Ergebnisse, einschließlich eines Diagramms, in dem der Unterschied zwischen der ursprünglichen Variante und den Varianten sowie die Steigerung angezeigt wird:

      1. Messwert: Sie können den Unterschied zwischen der Baseline und den Varianten auswerten, um die statistische Signifikanz zu ermitteln.
      2. Status: Gibt an, ob die Ergebnisse statistisch signifikant sind. Ein statistisch signifikantes Ergebnis liegt vor, wenn es zwischen der ursprünglichen und einer der weiteren Varianten einen großen Unterschied in Bezug auf das Testziel gibt.
      3. Testzeitraum: die Laufzeit des Tests
      4. Typ: gibt an, ob Sie Anzeigenaufträge oder Werbebuchungen miteinander vergleichen
      5. Zuverlässigkeit: das Konfidenzniveau, das Sie für den Test festgelegt haben
      6. Konfidenzintervall: Wenn diese Option aktiviert ist, gilt die für den Test festgelegte Zuverlässigkeit. 
  5. Sie können die Ergebnisse so anpassen:

    • Baseline auswählen: Standardmäßig sehen Sie im Diagramm den Vergleich zwischen der ursprünglichen Variante und mehreren anderen Varianten. Über die Liste Ursprüngliche Variante können Sie die gewünschte Variante festlegen.

    • Attributionsmodell auswählen: Wenn Sie sich die Ergebnisse für Conversion-Tests ansehen, können Sie über die Liste Attributionsmodelle ein Attributionsmodell angeben.

  6. Sie haben die Möglichkeit, zwei unabhängige Studien zur Anzeigenwirkung auf die Markenbekanntheit als Testverzweigungen zu konfigurieren, um entsprechende Ergebnisse zu erhalten. So rufen Sie unter Tests die Ergebnisse für Studien zur Anzeigenwirkung auf die Markenbekanntheit auf:

    Wenn Sie Studien zur Anzeigenwirkung auf die Markenbekanntheit für Anzeigenaufträge in einem Test erstellen, werden sie automatisch auf die beschleunigte Messung gesetzt. Im Rahmen der Studie wird versucht, schnellstmöglich Antworten zu erhalten. Sobald die gewünschte Anzahl von Antworten erreicht ist, wird die Studie gestoppt.
    • Die Startdaten der Studien zur Anzeigenwirkung auf die Markenbekanntheit und des Tests müssen identisch sein.
    • Die Auswahl der Messwerte und die Fragen in der Umfrage müssen identisch sein.
    • Beispiel mit zwei Kampagnen: Sie können für jede Kampagne eine Studie zur Anzeigenwirkung auf die Markenbekanntheit einrichten und einen Test mit zwei Testverzweigungen pro Kampagne erstellen. Wenn die Studie zur Anzeigenwirkung auf die Markenbekanntheit abgeschlossen ist, können Sie die Ergebnisse auch dann sehen, wenn der Test noch läuft.

Unterschiede in einem Test aufrufen

Öffnen Sie den Tab Unterschiede und sehen Sie sich die Unterschiede zwischen den verschiedenen Testversionen an. So können Sie feststellen, ob der einzige Unterschied die Variable ist, für die Sie den Test ausführen. Sie haben die Möglichkeit, Unterschiede vor dem Testen zu beseitigen, sodass die Ergebnisse möglichst nicht verzerrt oder irrelevant sind. Wenn Variantengruppen mehrere Werbebuchungen umfassen, werden die Vergleiche basierend auf der minimalen Anzahl von erkannten Unterschieden automatisch in Display & Video 360 abgeglichen.

Das Tool zum Messen von Unterschieden ist für die Verwendung während des QA-Prozesses vorgesehen und kann nicht rückwirkend eingesetzt werden. Mit dem Tool werden Werbebuchungen und Anzeigenaufträge verglichen. Dabei werden die aktuellen Einstellungen und nicht die Einstellungen zum Zeitpunkt des Tests berücksichtigt. Es spiegeln sich also alle Änderungen wider, die Sie nach dem Test vorgenommen haben, wenn Sie z. B. Werbebuchungen archiviert haben, auch wenn die Änderungen keine Auswirkungen auf den Test hatten.

Best Practices

Beim Planen eines Tests sollten Sie folgende Punkte beachten.

Planung und Einrichtung
  • Testen Sie jeweils immer nur eine Variable. Alle Gruppen des Tests (ursprüngliche Variante und alle Varianten) sollten identisch sein – mit Ausnahme der einen Variablen, die Sie testen.

  • Erstellen Sie die Anzeigenaufträge oder Werbebuchungen für Ihre Tests nicht jedes Mal neu, sondern duplizieren Sie sie. So lässt sich einfacher sicherstellen, dass die Elemente in Ihren Tests identisch sind – mit Ausnahme der einen zu testenden Variablen.

  • Verwenden Sie in Ihren Tests ausschließlich neue Anzeigenaufträge oder Werbebuchungen. Wenn ein Anzeigenauftrag oder eine Werbebuchung zuvor außerhalb des Tests aktiv war, kann sich dies auf die Conversion-Erfassung auswirken.

  • Beseitigen Sie alle äußeren Einflüsse. Ihre Werbebuchungen außerhalb des Tests dürfen nicht mit den Budgets der Werbebuchungen konkurrieren, die zum Test gehören. Verwenden Sie für alle Werbebuchungen, die Teil eines bestimmten Tests sind, nach Möglichkeit einen eigenen Anzeigenauftrag.

    Außerdem sollten in Tests genutzte Creatives nicht auch anderweitig verwendet werden.

  • Legen Sie den Wert für das Frequency Capping ausreichend hoch fest. Wenn Sie im Test Anzeigenaufträge verwenden, sollten Sie für das Frequency Capping der Kampagne einen Wert festlegen, der mindestens so hoch ist wie die Summe aus dem höchsten Frequency Capping-Wert aller Anzeigenaufträge, die am Test teilnehmen, und der entsprechenden Werte der Anzeigenaufträge, die nicht im Test verwendet werden.

    Beispiel: Ihre Kampagne enthält drei Anzeigenaufträge, aber nur zwei davon sind Teil des Tests. Den minimalen Frequency Capping-Wert für die Kampagne bestimmen Sie so: Addieren Sie den höchsten Frequency Capping-Wert der beiden teilnehmenden Anzeigenaufträge zum entsprechenden Wert des Anzeigenauftrags, der nicht im Test verwendet wird. Wenn also für die Anzeigenaufträge im Test beispielsweise die Werte 10 und 8 festgelegt sind und dem dritten Anzeigenauftrag, der nicht Teil des Tests ist, der Wert 5 zugewiesen ist, sollte die Kampagne den Frequency Capping-Wert 15 haben. Um dieses Ergebnis zu erhalten, addieren Sie den höchsten Frequency Capping-Wert aller Anzeigenaufträge des Tests (10) zur Summe aller Frequency Capping-Werte der restlichen Anzeigenaufträge in der Kampagne, die nicht am Test teilnehmen (5).

    Diese Best Practice gilt auch für das Frequency Capping auf Anzeigenauftragsebene, wenn beim Test Werbebuchungen miteinander verglichen werden.

  • Planen Sie das Budget und die Budgetabstufung genau. Für jede Gruppe eines Tests sollte das Budget proportional zur entsprechenden Zielgruppenaufteilung festgelegt werden. Falls Sie das Budget anders (nicht proportional) zuweisen, wird es zu einer Testvariablen. Die Budgetabstufung sollte die gleiche sein, sonst wird auch sie zu einer Testvariablen. Diese Best Practice sollte nicht nur für die Werbebuchungen innerhalb eines Tests umgesetzt werden, sondern auch für andere Werbebuchungen, die nicht Teil des Tests sind, aber zum gleichen Anzeigenauftrag gehören. Die Budgetabstufung und die Möglichkeit, das Budget auszugeben, wirken sich darauf aus, wie mit den Werbebuchungen beim Test Inventar gekauft wird, was wiederum die Ergebnisse beeinflusst.

  • Seien Sie vorsichtig, wenn die Reichweite eingeschränkt ist. Wenn die Reichweite relativ eingeschränkt ist (z. B. beim Kauf von Deal- oder Zielgruppeninventar mit begrenzter Reichweite), sind die Konfidenzintervalle bei Tests eventuell relativ groß. Dies kann die Beurteilung der Effizienz Ihrer Varianten erschweren.

  • Legen Sie alle Details mit ausreichender Vorlaufzeit fest. Sie sollten vor Beginn des Tests genügend Zeit für die Genehmigung aller Creatives einplanen.

Während des Tests
  • Pausieren Sie den Test nicht. Falls Sie eine Kampagne vorübergehend aussetzen möchten, der Test jedoch fortgesetzt werden soll, pausieren Sie alle Gruppen, aber nicht den Test selbst. Wenn Sie die Kampagne dann wieder fortsetzen, aktivieren Sie alle Gruppen gleichzeitig.

    Wenn Sie einen Test beenden, kann er nicht wieder gestartet werden. Außerdem werden alle Elemente, die dem Test zugewiesen sind, wieder für 100 % Ihrer Nutzer ausgeliefert.
  • Nehmen Sie einheitliche Änderungen vor. Wenn Sie während eines Tests Änderungen an Ihren Anzeigenaufträgen oder Werbebuchungen vornehmen möchten, müssen Sie dieselbe Änderung auf alle Verzweigungen des Tests anwenden. Das ist beispielsweise der Fall, wenn Sie eine Website aufgrund der Markeneignung entfernen müssen.

Hinweise

  • Für folgende Inventartypen sind keine Tests möglich:
    • Programmatisch garantierte Standardwerbebuchungen oder Anzeigenaufträge mit Standardwerbebuchungen
    • Inventar für Direktreservierung
  • Zwischen Einrichtung und Start eines Tests müssen 24 Stunden liegen. Der aktuelle oder nachfolgende Tag kann nicht als Startdatum ausgewählt werden.
  • Eine Werbebuchung oder ein Anzeigenauftrag kann jeweils nur in einem aktiven Test verwendet werden.
  • Nach Beginn eines Tests können Sie die Prozentsätze für die Zielgruppenaufteilung nicht mehr ändern.
  • Das Testframework erkennt derzeit keine geräteübergreifenden Aufrufe. Daher kann es vorkommen, dass ein Nutzer auf seinem Mobilgerät eine Variante und auf seinem Computer die ursprüngliche Variante sieht.
  • Die Anzahl der erfassten Conversions unterscheidet sich möglicherweise zwischen Tests und Berichten, so zum Beispiel auch bei den Messwerten in den Tabellen. Das liegt daran, dass für die im Rahmen von Tests erfassten Messwerte nur die Impressionen berücksichtigt werden, die während des Tests erzielt wurden.
  • Studien zur Anzeigenwirkung, die in A/B-Tests erstellt wurden, können nicht noch einmal gemessen werden. Wenn Sie die Studie noch einmal analysieren möchten, müssen Sie den Test beenden, den Anzeigenauftrag aus der Studie entfernen und auf dem Tab „Tests zur Anzeigenwirkung auf die Markenbekanntheit“ eine neue Studie erstellen.

Häufig gestellte Fragen

Was ist der Unterschied zwischen dem Targeting gemäß Zielgruppensegmentierung in Campaign Manager 360 und Tests in Display & Video 360?

Beim Targeting gemäß Zielgruppensegmentierung in Campaign Manager 360 wird der Traffic auf verschiedene Creatives aufgeteilt. Sie können dabei beispielsweise den Traffic einer Campaign Manager 360-Kampagne in verschiedene Nutzergruppen aufteilen und für jedes Segment ein anderes Creative trafficken.

Mit Tests in Display & Video 360 können Sie den Traffic auf Ebene eines Anzeigenauftrags oder einer Werbebuchung aufteilen und so jede Einstellung und alle für das Targeting verfügbaren Dimensionen und nicht nur die Creatives im Ganzen testen. 

Warum kann ich meinem Test einen bestimmten Anzeigenauftrag oder eine bestimmte Werbebuchung nicht hinzufügen?

Wenn Sie einen Test einrichten, werden Anzeigenaufträge und Werbebuchungen, die nicht für den Test zur Verfügung stehen, ausgeblendet bzw. als nicht auswählbar angezeigt.

Über die Kurzinfo erfahren Sie, warum es nicht möglich ist, einen bestimmten Anzeigenauftrag oder eine bestimmte Werbebuchung in den Test aufzunehmen.

Was ist der Unterschied zwischen Google Optimize und Tests in Display & Video 360?

Tests in Display & Video 360 dienen dazu, die Strategien von Werbekampagnen, z. B. Targeting und Einstellungen, zu vergleichen. Google Optimize ist hingegen auf Vergleiche verschiedener Websites oder Landingpages ausgelegt.

Für Tests in Display & Video 360 wird ein frequentistisches Modell verwendet, das dem der meisten anderen Lösungen zur Leistungsmessung von Werbung ähnelt. Bei Google Optimize findet hingegen ein bayessches Modell Anwendung, das sich besser für Szenarien mit geringer Stichprobengröße eignet.

War das hilfreich?

Wie können wir die Seite verbessern?
true
Leitfaden zur Datenschutzbereitschaft 2024

Bereiten Sie sich auf eine Welt ohne Drittanbieter-Cookies vor und
profitieren Sie von moderner KI, indem Sie die richtigen zukunftsfähigen
Zielgruppen und Analysetools nutzen.
Jetzt loslegen

Suche
Suche löschen
Suche schließen
Hauptmenü
3513770726103790913
true
Suchen in der Hilfe
true
true
true
true
true
69621
false
false