Manuellen Test durchführen

Tests mit individuellen Kriterien durchführen, um zu ermitteln, wie sich Änderungen auf Ihr Netzwerk auswirken

Ein manueller Test ist ein Test, den Sie basierend auf eigenen Kriterien und einem individuellen Zeitplan durchführen. Im Test wird ein Prozentsatz des tatsächlichen Traffics Ihres Netzwerks genutzt, um zu testen, wie sich die Anwendung dieser Einstellungen auf den Umsatz auswirken würde. Wenn Sie einen Test durchführen, wird er auf der Seite „Tests“ angezeigt.

Klicken Sie auf Optimierung und dann Tests, um eine Liste aller verfügbaren manuellen Testtypen anzuzeigen und Ihre aktiven Tests zu sehen.

In Ihrem Ad Manager-Netzwerk können jeweils bis zu 100 aktive Tests vorhanden sein. Als aktive Tests werden alle Tests eingestuft, die derzeit ausgeführt werden, pausiert sind oder beendet wurden und auf eine weitere Maßnahme Ihrerseits warten.

Benachrichtigungen zu Tests erhalten

Sie können sich per E-Mail oder direkt in Ad Manager über Ihre Tests informieren lassen. So gehts:

  1. Melden Sie sich in Google Ad Manager an.
  2. Klicken Sie für E-Mail-Benachrichtigungen auf Optimierung und dann Tests und dann E-Mails zu Aktualisierungen abonnieren.
  3. Klicken Sie für Benachrichtigungen in Ad Manager auf „Benachrichtigungen“ Benachrichtigungen und dann „Einstellungen“ Settings und dann Benachrichtigungen zu Tests.

Manuelle Tests – Übersicht

So führen Sie einen manuellen Test durch:

  1. Wählen Sie den Testtyp und die zu verwendenden Kriterien aus.
  2. Definieren Sie einen Testlauf und führen Sie ihn für die angegebene Dauer durch.
  3. Bearbeiten Sie die Bedingungen für das automatische Pausieren des Tests oder deaktivieren Sie diese Funktion.
  4. Sie können den Impressions-Traffic, der der Variantengruppe zugeordnet ist, mit dem der Kontrollgruppe vergleichen. So lässt sich ermitteln, welche Gruppe während des Tests erfolgreicher ist.
  5. Führen Sie nach Bedarf weitere Tests durch.
  6. Legen Sie fest, ob die Testeinstellungen auf Ihr Ad Manager-Netzwerk angewendet werden sollen.
Sie können auch einen Test auf der Grundlage einer Empfehlung durchführen, die Ihnen von Ad Manager vorgeschlagen wurde.

Testen

Gehen Sie so vor, um einen manuellen Test durchzuführen:

Hinweis: Die Schritte unterscheiden sich je nach Testtyp geringfügig. Weitere Informationen finden Sie unten im Abschnitt Manuellen Testtyp auswählen.  

  1. Melden Sie sich in Google Ad Manager an.
  2. Klicken Sie auf Optimierung und dann Tests.
  3. Klicken Sie auf der Karte für den Testtyp, den Sie verwenden möchten, auf Neuer Test.
  4. Geben Sie einen Namen für den Test ein, damit Sie die Ergebnisse einfacher finden.
  5. Geben Sie die Einstellungen ein, die für Ihren Testtyp spezifisch sind.
  6. Legen Sie unter „Testzeitraum“ ein Startdatum und ein Enddatum für den Testzeitraum fest.
    • Startdatum: Jeder Testlauf sollte mindestens 7 Tage aktiv sein, damit Sie möglichst aussagekräftige Ergebnisse erhalten. Sie können sofort mit dem Testlauf beginnen oder ein späteres Startdatum auswählen. Alle Testläufe starten am geplanten Datum um 00:00 Uhr und enden um 23:59 Uhr Ihrer Zeitzone. Die Daten werden täglich aktualisiert. Wenn Sie das Startdatum auf den aktuellen Tag festlegen, wird der Testlauf innerhalb der nächsten Stunde gestartet.
    • Enddatum: Jeder Testlauf darf maximal 31 Tage dauern. Wenn der Testlauf beendet ist, können Sie die Ergebnisse überprüfen, um zu entscheiden, ob Sie sie als Empfehlung übernehmen, einen weiteren Testlauf durchführen oder den Test beenden und die ursprünglichen Einstellungen beibehalten möchten.
  7. Legen Sie unter „Traffic-Zuordnung“ den Prozentsatz des Impressionstraffics fest, der dem Test zugeordnet werden soll.
  8. Legen Sie unter „Test automatisch pausieren“ bis zu zehn Bedingungen für die automatische Pause fest und wählen Sie für jede Bedingung die Option Insgesamt oder Täglich aus:
    • Insgesamt: Das ist der Umsatzverlust, der während des Testlaufs zu einer Pausierung führt.
    • Täglich: Hier wird ebenfalls der Umsatzverlust zurate gezogen, um zu bestimmen, ob ein Test pausiert werden soll. Bei dieser Option werden jedoch nur die Daten des letzten vollständigen Tags berücksichtigt.
      Hinweis: Die automatische Pausierfunktion prüft einmal pro Tag, ob die Ergebnisse den festgelegten Bedingungen entsprechen. Damit Tests vor der Pause genügend Zeit zum Erfassen von Daten haben, werden Testläufe in den ersten 24 Stunden nach ihrem Start nicht pausiert. Um Stichprobenfehler zu vermeiden, werden Testläufe nur auf der Grundlage statistisch signifikanter Ergebnisse pausiert. Beispielsweise werden Testläufe pausiert, wenn die Untergrenze eines 95-%-Konfidenzintervalls den erforderlichen Grenzwert erreicht.
  9. Klicken Sie auf Speichern.

Best Practices für manuelle Tests​

Es kann vorkommen, dass Änderungen an Ihren Einstellungen Auswirkungen auf das Verhalten von Käufern und anderen Marktteilnehmern haben. Für eine optimale Nutzung der manuellen Tests, die Sie durchführen und deren potenziellen Einfluss auf das Marktverhalten Sie prüfen möchten, sollten Sie die nachfolgenden Best Practices beachten.

Tests mithilfe von Testläufen optimieren

Tests, die für einen niedrigen Prozentsatz des Traffics ausgeführt werden, sind zwar weniger riskant, es ist aber auch gleichzeitig weniger wahrscheinlich, dass andere Marktteilnehmer ihr Verhalten aufgrund des Tests ändern.

Wenn Sie bei einer geringen Menge an zugeordnetem Traffic mit der Leistung zufrieden sind, können Sie einen zweiten Testlauf starten, bei dem dieselben Einstellungen für mehr Traffic verwendet werden. So lässt sich einfacher nachvollziehen, welche Auswirkungen es hat, wenn Sie die Einstellungen für den gesamten Netzwerktraffic übernehmen. Das gilt besonders für Änderungen an Preisen, die mit hoher Wahrscheinlichkeit Reaktionen bei den Käufern hervorrufen.

Ihnen sollte bewusst sein, dass Tests für einen geringen Prozentsatz an Traffic möglicherweise nicht leistungsfähig genug sind, um das Nutzerverhalten zu ändern. Je mehr Traffic Sie dem Test zuordnen, desto wahrscheinlicher ist es, dass sich das Marktverhalten anpasst und Sie die Auswirkungen dieser Verhaltensänderung messen können.

Längere Tests ausführen

Es ist wichtig, dass die Tests lang genug ausgeführt werden, damit sich das Verhalten anpasst und Sie die Auswirkungen im Rahmen des Tests messen können. Häufig dauert es 7 Tage oder länger, bis sich das geänderte Verhalten auf Ihren Umsatz auswirkt.

Gesamtumsatz und Vergleiche der unterschiedlichen Einstellungen im Blick behalten

Die Testeinstellungen können sich sowohl auf die Variantengruppe als auch auf die Kontrollgruppe auswirken. Sie sollten daher prüfen, ob der erwartete Umsatz in der Variantengruppe Ihren Erwartungen für das gesamte Netzwerk genügt.

Manuellen Testtyp auswählen

Vom ausgewählten Testtyp hängt ab, wie viel Traffic zugeordnet wird und welche Kriterien für das Ausführen eines manuellen Tests verwendet werden.

Blockierung von Kategorien aufheben

Wenn Sie die Blockierung von Kategorien aufheben, können mehr Werbetreibende und Käufer am Wettbewerb um Ihr Inventar teilnehmen. Hierdurch lassen sich Abdeckung und Umsatz erhöhen.

Testkriterien

  • Schutzmaßnahme: Wählen Sie die Schutzmaßnahme aus, für die dieser Test ausgeführt werden soll.
  • Blockierung der folgenden Kategorie aufheben: Wählen Sie die Kategorie aus, für die Sie während des Tests die Blockierung aufheben möchten.
  • Testzeitraum: Das früheste verfügbare Startdatum wird in der Zeitraumauswahl angezeigt. Geplante Tests beginnen am ausgewählten Datum.
  • Traffic-Zuordnung: Das ist der Prozentsatz der geschätzten Impressionen, den Sie beim Test dem Testdesign zuordnen möchten. Der Rest entfällt auf das Kontrolldesign. Wenn Sie beispielsweise 60 % der Impressionen dem Testdesign zuordnen, erhält das Kontrolldesign 40 %. Denken Sie an diese Zuordnung, wenn Sie die Testergebnisse analysieren.
Einheitliche Preismodellregeln

Publisher können manuelle Tests für einheitliche Preismodellregeln ausführen, bei denen der Mindestpreis einer beliebigen Regel dieses Typs geändert wird. Sie können den Mindestpreis der Regel bei den Tests erhöhen und verringern und dann die Ergebnisse vergleichen.

Überschneidungen bei Preismodellregeln: Mithilfe von Tests für einheitliche Preismodellregeln lässt sich die Leistung aller Anzeigenanfragen ermitteln, die mit den Targeting-Kriterien der Regel übereinstimmen. Dazu zählen auch Anzeigenanfragen, deren Targeting sich mit dem anderer Preisoptionen überschneidet. So können in Ad Manager Preisänderungen berücksichtigt werden, bei denen das Verhältnis von Impressionen und Umsatz auf andere Preismodellregeln oder Preisoptionen verlagert wird.

Der angezeigte CPM ist ein Durchschnittswert für alle Anzeigenanfragen, die mit den Targeting-Kriterien übereingestimmt haben. Das bedeutet, dass der CPM bei einigen Tests für einheitliche Preismodellregeln unter dem Mindestpreis liegen kann. Dieser Fall kann eintreten, wenn für einen großen Teil des Traffics, der den Targeting-Kriterien entspricht, nicht die von Ihnen ausgewählte Preisoption gilt, sondern nur eine Preismodellregel mit einem niedrigeren Preis.

Beispiel
  • Die Preismodellregel P1 ist auf den Anzeigenblock XYZ ausgerichtet und hat eine untergeordnete Regel für den Werbetreibenden A123 mit einem Mindestpreis von 10 €.
  • Die Preismodellregel P2 ist auf den Anzeigenblock XYZ ausgerichtet und hat eine Unterregel für alle Creatives mit einem Mindestpreis von 2 €.

Wenn Sie einen Test für P1 durchführen, enthält der Bericht wahrscheinlich einen eCPM unter 10 €, weil der Mindestpreis von 10 € nur gilt, wenn der Werbetreibende A123 die Auktion gewinnt. Wir berücksichtigen jedoch den gesamten Traffic, bei dem der Anzeigenblock XYZ vorhanden ist. Dieser würde aufgrund der zweiten Regel einen Mindestpreis von 2 € aufweisen.

Testkriterien

  • Einheitliche Preismodellregel: Wählen Sie die einheitliche Preismodellregel aus, um festzulegen, für welchen Traffic der Test ausgeführt wird.
  • Preisoption: Wählen Sie Preisoptionen aus, die beim Test verwendet werden.
  • Testpreis: Das ist der Preis, der auf den Traffic in der Variantengruppe angewendet wird.
  • Betroffene Restwerbebuchungen: Das ist die geschätzte Anzahl der Restwerbebuchungen, auf die sich eine Änderung des Mindestpreises im Test bezogen auf den ursprünglichen Preis auswirkt.
  • Testzeitraum: Das früheste verfügbare Startdatum wird in der Zeitraumauswahl angezeigt. Geplante Tests beginnen am ausgewählten Datum.
  • Traffic-Zuordnung: Das ist der Prozentsatz der geschätzten Impressionen, den Sie beim Test dem Testdesign zuordnen möchten. Der Rest entfällt auf das Kontrolldesign. Wenn Sie beispielsweise 60 % der Impressionen dem Testdesign zuordnen, erhält das Kontrolldesign 40 %. Denken Sie an diese Zuordnung, wenn Sie die Testergebnisse analysieren.
Natives Anzeigendesign
Die A/B-Tests umfassen zwei native Anzeigendesigns, einschließlich visueller Elemente und anderer Aktualisierungen. Sie können die Ergebnisse vergleichen, um zu bestimmen, mit welchem Design Sie in Ihrem Werbenetzwerk die bessere Leistung erzielen würden.

Das ursprüngliche Design, das Sie mit dem neuen vergleichen möchten, ist das Kontrolldesign bzw. die Kontrollgruppe. Das neue Design dient als Testdesign bzw. Testgruppe. Sie aktualisieren die Einstellungen der Testgruppe und versuchen so, die Leistung im Vergleich zum Design der Kontrollgruppe zu verbessern. Anschließend können Sie die Leistung der beiden Designs analysieren und entscheiden, welche Einstellungen Sie künftig verwenden möchten.

Mithilfe von nativen Tests können nur zwei native Designs in vorhandenen nativen Placements verglichen werden. Es ist nicht möglich, Banner- und native Anzeigen zu vergleichen, die in demselben Anzeigen-Placement ausgeliefert werden.

Wenn ein Test auf ein natives Kontrolldesign ausgerichtet ist, dem sowohl programmatischer als auch traditioneller Traffic zugeordnet ist, hat das Einfluss auf den Traffic für Reservierungen.

Testkriterien

  • Natives Design: Wählen Sie das native Design mit dem Format und der Dealeignung aus, für die Sie einen Test ausführen möchten.
  • Testzeitraum: Das früheste verfügbare Startdatum wird in der Zeitraumauswahl angezeigt. Geplante Tests beginnen am ausgewählten Datum.
  • Traffic-Zuordnung: Das ist der Prozentsatz der geschätzten Impressionen, den Sie beim Test dem Testdesign zuordnen möchten. Der Rest entfällt auf das Kontrolldesign. Wenn Sie beispielsweise 60 % der Impressionen dem Testdesign zuordnen, erhält das Kontrolldesign 40 %. Behalten Sie diese Zuordnung im Hinterkopf, wenn Sie die Testergebnisse analysieren.
  • Targeting hinzufügen: Hier können Sie das Targeting für den Test festlegen. Es muss dem Targeting der Werbebuchung entsprechen, damit eine Auslieferung möglich ist.
Formate

Sie können neue Anzeigenformate testen, um deren Auswirkungen auf Ihr Inventar zu verstehen. Derzeit sind die Formate Web-Interstitial und Ankeranzeige für Tests verfügbar. So können Sie Web-Interstitials oder Ankeranzeigen in Ihrem Webinventar testen, bevor Sie Entwicklerressourcen für das Tagging einsetzen.

Nach Abschluss des Tests müssen Sie dennoch Web-Interstitials oder Ankeranzeigen selbst einrichten und trafficken.

Testkriterien

  • Format: Wählen Sie das Format aus, für das Sie einen Test ausführen möchten.
  • Zu testender Anzeigenblock: Wählen Sie den Anzeigenblock aus, der für das Trafficking verwendet werden soll und mit dem Sie in Berichten die Testleistung nachvollziehen können. Der Anzeigenblock wird nicht für das Targeting genutzt. Das Format wird also für alle Anfragen ausgeliefert, die mit dem Test-Targeting übereinstimmen. Wir empfehlen, einen neuen Anzeigenblock einzurichten.
  • Ziel: Legen Sie fest, wo der Test ausgeführt werden soll.
  • Testzeitraum: Das früheste verfügbare Startdatum wird in der Zeitraumauswahl angezeigt. Geplante Tests beginnen am ausgewählten Datum.
  • Traffic-Zuordnung: Das ist der Prozentsatz der geschätzten Impressionen, den Sie beim Test den Test-Web-Interstitials zuordnen möchten. Der Rest entfällt auf andere Anzeigen. Wenn Sie beispielsweise 60 % der Impressionen den Test-Web-Interstitials zuordnen, erhalten die anderen Anzeigen die übrigen 40 %. Denken Sie an diese Zuordnung, wenn Sie die Testergebnisse analysieren.
Ertragsgruppen
Wenn Sie eine neue Ertragsgruppe aktivieren, können Sie die Auswirkungen der zusätzlichen Nachfrage nach Ihrem Inventar nachvollziehen.

Testkriterien

  • Einstellungen der Ertragsgruppe: Wählen Sie die Ertragsgruppe aus, die für den Test verwendet werden soll. Eine Ertragsgruppe muss als „Inaktiv“ festgelegt sein, damit sie in einem Test verwendet werden kann. Beim Test wird sie aktiviert. Wenn sie in einem Test verwendet wird, hat die Ertragsgruppe den Status „Experimentieren“. Wenn Sie den Test beenden, indem Sie ihn übernehmen oder ablehnen, ändert sich der Status der Ertragsgruppe in „Aktiv“ bzw. „Inaktiv“.
  • Testzeitraum: Das früheste verfügbare Startdatum wird in der Zeitraumauswahl angezeigt. Geplante Tests beginnen am ausgewählten Datum.
  • Traffic-Zuordnung: Das ist der Prozentsatz der Impressionen, um den die Ertragsgruppe während des Tests konkurrieren soll. Nur die Impressionen, auf die die Ertragsgruppe ausgerichtet ist, sind betroffen. Die übrigen werden so gefüllt, als wäre die Ertragsgruppe inaktiv. Wenn Sie beispielsweise der Testertragsgruppe 60 % der Impressionen zuweisen, gibt es bei 40 % keine Auswirkungen. Denken Sie an diese Zuordnung, wenn Sie die Testergebnisse analysieren.
 

War das hilfreich?

Wie können wir die Seite verbessern?
Suche
Suche löschen
Suche schließen
Hauptmenü
15267752893516456953
true
Suchen in der Hilfe
true
true
true
true
true
148
false
false