Tests beobachten

Nachdem ein Test gestartet wurde, sollten Sie seine Leistung im Auge behalten. So können Sie einen Vergleich mit der ursprünglichen Kampagne anstellen und entscheiden, ob Sie den Test beenden, auf die ursprüngliche Kampagne anwenden oder in eine neue Kampagne umwandeln möchten.

In diesem Artikel wird erläutert, wie Sie die Leistung von Tests überwachen und auswerten.

Anleitung

Leistung eines Tests aufrufen

  1. Klicken Sie in Ihrem Google Ads-Konto auf das Symbol für Kampagnen Symbol „Kampagnen“.
  2. Öffnen Sie das Drop-down-Menü Kampagnen.
  3. Klicken Sie auf Tests.
  4. Suchen und klicken Sie auf den Test, dessen Leistung Sie sehen möchten.
  5. Sehen Sie sich die Tabelle „Zusammenfassung der Testergebnisse“ und die Kurzübersicht an und wählen Sie dann Test übernehmen oder Test beenden aus.

Inhalt der Kurzübersicht

  • Leistungsvergleich: Hier sehen Sie, für welchen Zeitraum die Leistung des Tests und der ursprünglichen Kampagne verglichen wird. Es werden nur volle Tage angezeigt, die zwischen dem Start- und Enddatum des Tests und dem Zeitraum liegen, der für die Tabelle unten ausgewählt wurde. Gibt es keine Überschneidungen, werden die vollen Tage zwischen dem Start- und Enddatum des Tests für den Leistungsvergleich verwendet.
  • Standardmäßig werden Leistungsdaten für „Klicks“, „CTR“, „Kosten“, „Impressionen“ und „Alle Conversions“ angezeigt. Sie haben jedoch die Möglichkeit, auf den Abwärtspfeil neben dem Namen eines Messwerts zu klicken, um andere Leistungsmesswerte darstellen zu lassen. Folgende Messwerte stehen zur Auswahl:
  • In der ersten Zeile unter jedem Messwertnamen werden die zugehörigen Daten angezeigt. Falls beispielsweise unter „Klicks“ der Wert „4.000“ angezeigt wird, bedeutet das, dass die Anzeigen des Tests seit Beginn der Ausführung so oft angeklickt wurden.
  • In der zweiten Zeile ist eine Schätzung für den Leistungsunterschied zwischen dem Test und der Kampagne zu sehen.
    • Der erste Wert spiegelt den Leistungsunterschied zwischen dem Test und der ursprünglichen Kampagne beim entsprechenden Messwert wider. Wenn beispielsweise für „Klicks“ der Wert „+ 10 %“ angezeigt wird, hat der Test den Schätzungen zufolge 10 % mehr Klicks erhalten als die ursprüngliche Kampagne. Sollten für die ursprüngliche Kampagne bzw. den Test noch nicht genügend Daten vorliegen, ist hier „–“ zu sehen.
    • Der zweite Wert zeigt, dass bei einem Konfidenzintervall von 95% der mögliche Leistungsunterschied zwischen dem Test und der ursprünglichen Kampagne entsprechend groß sein kann. Falls beispielsweise [+ 8 %, + 12 %] angezeigt wird, kann die Leistung beim Test zwischen 8 % und 12 % höher liegen als bei der Kampagne. Sollten für die ursprüngliche Kampagne bzw. den Test noch nicht genügend Daten vorliegen, ist hier „–“ zu sehen. Sie können Ihre eigenen Konfidenzintervalle auswählen (80 % ist das standardmäßige Konfidenzintervall). So lassen sich Ihre Testmesswerte mit dynamischen Konfidenzberichten besser nachvollziehen.
    • Sollte das Ergebnis statistisch signifikant sein, wird außerdem ein blaues Sternchen angezeigt.

Tipp

Bewegen Sie den Mauszeiger auf diese zweite Zeile, um eine ausführlichere Erklärung der Daten aufzurufen. Folgende Informationen stehen zur Verfügung:

Statistische Signifikanz: Hier sehen Sie, ob die Daten statistisch signifikant sind.
  • Statistisch signifikant: Das bedeutet, dass Ihr p-Wert kleiner oder gleich 5 % ist. Mit anderen Worten: Die Daten sind wahrscheinlich kein Zufall und der Test wird mit größerer Wahrscheinlichkeit weiterhin ähnliche Ergebnisse aufweisen, wenn Sie eine Kampagne daraus erstellen.
  • Statistisch nicht signifikant: Das bedeutet, dass der p-Wert größer oder gleich 5 % ist. Hier einige mögliche Gründe dafür, dass die Daten nicht als statistisch signifikant angesehen werden:
    • Der Test ist noch nicht lang genug aktiv.
    • Die Kampagne erzielt nicht genügend Zugriffe.
    • Dem Test wurde ein zu kleiner Teil der Zugriffe zugewiesen, sodass es nicht genügend Zugriffe gab.
    • Ihre Anpassungen haben zu keiner statistisch signifikanten Leistungsänderung geführt.
  • Unabhängig davon, ob Ihre Daten statistisch signifikant waren oder nicht, wird eine Erklärung wie die folgende angezeigt. Diese gibt Aufschluss darüber, wie wahrscheinlich es ist, dass die Leistungsdaten zufällig waren: „Die Wahrscheinlichkeit, dass diese Leistung bzw. ein höherer Leistungsunterschied erreicht wird, liegt aufgrund der Zufälligkeit bei 0,2 %. Je kleiner der Prozentwert, desto signifikanter das Ergebnis.“
  • Konfidenzintervall: Hier werden weitere Informationen zum Konfidenzintervall für den Leistungsunterschied angezeigt. Dazu gehört auch eine Erklärung, die ungefähr den folgenden Wortlaut haben kann: „Die Wahrscheinlichkeit, dass bei Ihrem Test im Vergleich zur ursprünglichen Kampagne ein Leistungsunterschied von + 10 % bis + 20 % für diesen Messwert verzeichnet wird, liegt bei 95 %.“
  • Außerdem werden die tatsächlichen Daten des Messwerts für den Test und die ursprüngliche Kampagne angezeigt.

Welche Möglichkeiten bietet die Kurzübersicht?

  • In der Kurzübersicht können Sie über das Drop-down-Menü einen anderen Messwert auswählen, der angezeigt werden soll.
  • Wenn Sie die Kurzübersicht für eine Anzeigengruppe im Test aufrufen möchten, klicken Sie in der Tabelle darunter auf die gewünschte Gruppe.
  • Wenn Sie Details wie den Namen und das Budget einer Kampagne sehen möchten, bewegen Sie den Mauszeiger auf die entsprechende Zelle in der Tabelle.

Zeitreihendiagramm

Das Zeitreihendiagramm zeigt die Leistung von bis zu zwei Messwerten in Ihrem Test und zeigt, wie sie sich im Laufe der Zeit in den Test- und in den Kontrollkampagnen verändert haben. In diesem Diagramm können Sie die Auswirkungen Ihrer Tests auf einen bestimmten Messwert vergleichen und mehr über die Leistung im Zeitverlauf erfahren.

Was passiert, wenn Sie Tests für Performance Max-Kampagnen pausieren oder entfernen?

Sie können die Kontroll- oder Testkampagne jederzeit pausieren oder beenden. Wenn Sie einen pausierten Test neu starten möchten, klicken Sie einfach auf die Schaltfläche „Fortsetzen“, um die Kampagnen fortzusetzen, oder reaktivieren Sie die Kampagnen manuell.

  • Kampagnen pausieren:
    • Wenn Sie die Kontroll- oder Testkampagne pausieren, wird der Test pausiert. 100 % der Zugriffe werden auf die verbleibende aktive Kampagne umgeleitet.
    • Wenn Sie sowohl die Kontroll- als auch die Testkampagne pausieren, wird der Test pausiert.
    • Teststatus am Enddatum:
      • Wenn das Enddatum des Tests erreicht ist, ändert die Performance Max-Synchronisierung den Status des Performance Max-Kampagnentests unabhängig von der automatischen Anwendung in „Beendet“ oder „Gestartet“. Wenn das Testergebnis jedoch gut ist und die automatische Anwendung aktiviert wurde, werden die Tests nach dem Ende automatisch in der Pipeline für die automatische Anwendung weitergeleitet.
      • Wenn das Enddatum des Tests erreicht ist und die automatische Anwendung deaktiviert wurde, müssen Sie die Änderungen manuell anwenden.
  • Kampagnen entfernen:
    • Wenn Sie die Kontroll- oder Testkampagne entfernen, werden 100 % der Zugriffe auf die verbleibende aktive Kampagne umgeleitet.
      • Wenn Sie nur die Kontrollkampagne entfernen, wird der Test gestartet.
      • Wenn Sie nur die Testkampagne entfernen, wird der Test beendet.
    • Wenn Sie sowohl die Kontroll- als auch die Testkampagne entfernen, wird der Test beendet.
Hinweis: Das gilt nur für Tests für Performance Max-Kampagnen, einschließlich Steigerung, Upgrades und Optimierung (Erweiterung der finalen URL).
  Kampagnenstatus Zugriffe nach Nutzeraktion Teststatus vor dem Enddatum Teststatus am Enddatum
Nutzeraktion Kontrollgruppe Testgruppe Kontrollgruppe Testgruppe
Eine der Kampagnen pausieren Pausiert Aktiv 0 % 100 % Pausiert Wenn automatische Anwendung aktiviert ist und die Testgruppenverzweigung positive Ergebnisse liefert, wird der Test gestartet. Andernfalls wird der Test beendet.
Aktiv Pausiert 100 % 0 % Pausiert
Beide Kampagnen pausieren Pausiert Pausiert 0 % 0 % Pausiert
Eine der Kampagnen entfernen Entfernt Aktiv 0 % 100 % Gestartet
Aktiv Entfernt 100 % 0 % Beendet
Beide Kampagnen entfernen Entfernt Entfernt 0 % 0 % Beendet

Test übernehmen oder beenden

Wenn Sie einen Test auf eine Kampagne anwenden oder aus irgendeinem Grund beenden möchten, klicken Sie rechts unten auf der Karte „Zusammenfassung der Testergebnisse“ über dem Zeitreihendiagramm auf die Schaltfläche „Übernehmen“ oder „Beenden“.

Kampagne prüfen oder bearbeiten, die mit einer vorhandenen Performance Max-Kampagne vergleichbar ist

Vergleichbare Kampagnen sind standardmäßig aus Berichten ausgeschlossen. Auf der Berichtsseite werden nur dann vergleichbare Performance Max-Kampagnen angezeigt, wenn Sie in Google Ads Berichte zu vergleichbaren Kampagnen aktivieren.

Während des Tests müssen Sie vergleichbare Kampagnen manuell bearbeiten. Andernfalls werden sie von Google für Sie ausgewählt. Nach dem Test können Sie keine vergleichbaren Kampagnen mehr hinzufügen oder entfernen.

  • Ergebnisse zusammen mit vergleichbaren Kampagnen ansehen: Wenn Sie die Leistung Ihres Tests mit ähnlichen Kampagnen vergleichen möchten, aktivieren Sie in den Google Ads-Berichten die Ein/Aus-Schaltfläche „Ergebnisse mit vergleichbaren Kampagnen anzeigen“.
  • Vergleichbare Kampagnen bearbeiten (bis zum Testende): Sie haben die volle Kontrolle darüber, welche Kampagnen während des Tests als „vergleichbar“ eingestuft werden. Bearbeiten Sie dazu einfach Ihre Auswahl in den Performance Max-Kampagnentests. Wenn Sie keine vergleichbaren Kampagnen manuell auswählen, werden sie automatisch von Google ausgewählt. Nach dem Test können Sie keine vergleichbaren Kampagnen mehr hinzufügen oder aus den Ergebnissen entfernen.

War das hilfreich?

Wie können wir die Seite verbessern?
true
Achieve your advertising goals today!

Attend our Performance Max Masterclass, a livestream workshop session bringing together industry and Google ads PMax experts.

Register now

Suche
Suche löschen
Suche schließen
Hauptmenü
9917409444636567697
true
Suchen in der Hilfe
true
true
true
true
true
73067
false
false
false