Monitorowanie eksperymentów

Po uruchomieniu eksperymentu warto jest odpowiednio monitorować jego wyniki. Wiedząc, jak wyglądają wyniki eksperymentu w porównaniu z oryginalną kampanią, możesz podjąć przemyślaną decyzję o tym, czy zakończyć eksperyment, zastosować go do oryginalnej kampanii lub utworzyć na jego podstawie nową.

Z tego artykułu dowiesz się, jak monitorować i analizować wyniki eksperymentów.

Instrukcje

Uwaga: podane niżej instrukcje dotyczą układu z nowej wersji Google Ads. Aby używać poprzedniego interfejsu, kliknij ikonę „Wygląd” i wybierz Użyj poprzedniego układu. Jeśli używasz poprzedniej wersji Google Ads, skorzystaj ze schematu konta lub z paska wyszukiwania w górnym panelu użytkownika na koncie Google Ads, aby znaleźć potrzebną stronę.

Sprawdzanie skuteczności eksperymentu

  1. Na koncie Google Ads kliknij ikonę Kampanie Campaigns Icon.
  2. W menu sekcji kliknij menu Kampanie.
  3. Kliknij Eksperymenty.
  4. Znajdź i kliknij eksperyment, którego skuteczność chcesz sprawdzić.
  5. Sprawdź tabelę „Podsumowanie eksperymentu” i podsumowanie statystyk, a potem kliknij Zastosuj eksperyment lub Zakończ eksperyment.

Informacje w podsumowaniu statystyk

  • Porównanie skuteczności: zawiera zakres dat, w którym porównujesz skuteczność eksperymentu i oryginalnej kampanii. Widoczne są tylko pełne dni pomiędzy datą rozpoczęcia i zakończenia eksperymentu oraz wybranym przez Ciebie zakresem dat. Jeśli zakresy dat się nie pokrywają, w raporcie „Porównanie skuteczności” zostaną uwzględnione pełne dni wypadające pomiędzy datami rozpoczęcia i zakończenia eksperymentu.
  • Domyślnie widoczne są te dane o skuteczności: Kliknięcia, CTR, Koszt, Wyświetlenia i Wszystkie konwersje, ale możesz wybrać dane, które chcesz wyświetlić. W tym celu obok nazwy danych kliknij strzałkę w dół. Do wyboru masz następujące opcje:
  • W pierwszym wierszu poniżej nazwy danych wyświetlają się wartości tych danych z eksperymentu. Jeśli np. przy danych „Kliknięcia” zobaczysz 4K, oznacza to, że reklamy w eksperymencie uzyskały od czasu jego uruchomienia 4000 kliknięć.
  • Drugi wiersz pokazuje szacowane różnice w skuteczności między eksperymentem a kampanią.
    • Pierwsza wartość to różnica w skuteczności na podstawie wartości określonych danych w eksperymencie w porównaniu z oryginalną kampanią. Jeśli np. w przypadku kliknięć widzisz +10%, Twój eksperyment uzyskał szacunkowo o 10% więcej kliknięć niż pierwotna kampania. Jeśli pierwotna kampania lub pierwotny eksperyment nie zbierze wystarczającej ilości danych, zobaczysz „‑‑”.
    • Druga wartość oznacza, że jeśli wybierzesz przedział ufności 95%, jest to możliwy zakres różnicy w skuteczności między eksperymentem a pierwotną kampanią. Jeśli np. zobaczysz [+8%, +12%], oznacza to, że eksperyment może zwiększyć skuteczność o 8–12% w porównaniu z pierwotną kampanią. Jeśli pierwotna kampania lub pierwotny eksperyment nie ma jeszcze wystarczającej ilości danych, zobaczysz „‐‐”. Możesz wybrać własne przedziały ufności (80% to domyślny przedział ufności) i uzyskać większą wiedzę na temat danych eksperymentu dzięki dynamicznemu raportowaniu ufności.
    • Jeśli wynik jest istotny statystycznie, zobaczysz też niebieską gwiazdkę.

Wskazówka

Gdy najedziesz kursorem na drugi wiersz, pojawią się bardziej szczegółowe informacje. Będą to między innymi:

Poziom istotności statystycznej: pokazuje, czy dane są istotne statystycznie.
  • Eksperyment jest istotny statystycznie: oznacza to, że wartość p jest mniejsza lub równa 5%. Dane najprawdopodobniej nie są przypadkowe, a eksperyment ma większe szanse na uzyskiwanie podobnej skuteczności po przekształceniu go w kampanię.
  • Eksperyment nie jest istotny statystycznie: oznacza to, że wartość p jest większa lub równa 5%. Oto kilka powodów, dla których Twoje dane mogą być nieistotne statystycznie.
    • Eksperyment nie był aktywny wystarczająco długo.
    • Kampania nie uzyskuje wystarczająco dużo ruchu.
    • Część ruchu przydzielona do eksperymentu była zbyt mała.
    • Wprowadzone zmiany nie spowodowały istotnych statystycznie różnic w skuteczności.
  • Niezależnie od tego, czy Twoje dane okażą się istotne statystycznie, zobaczysz wyjaśnienie, z którego dowiesz się, jakie jest prawdopodobieństwo, że dane zostały wygenerowane przypadkowo, np.: „Prawdopodobieństwo uzyskania takiej skuteczności (lub większych różnic w skuteczności) wynosi 0,2% (wartość p) ze względu na losowość. Im niższa jest wartość p, tym wyższy poziom istotności wyniku”.
  • Przedział ufności: zobaczysz też bardziej szczegółowe informacje o przedziale ufności różnicy w skuteczności wraz z wyjaśnieniem, np.: „Występuje 95-procentowe prawdopodobieństwo, że Twój eksperyment wykaże zmianę tych danych o +10–20% w porównaniu z pierwotną kampanią”.
  • Zobaczysz też rzeczywiste wartości tych danych w eksperymencie i w pierwotnej kampanii.

Co możesz zrobić w podsumowaniu statystyk

  • W podsumowaniu statystyk możesz zmienić wyświetlane dane, korzystając z umieszczonego obok nich menu.
  • Aby wyświetlić podsumowanie statystyk grupy reklam w eksperymencie, kliknij tę grupę w tabeli poniżej.
  • Aby zobaczyć szczegóły, takie jak nazwa i budżet kampanii, najedź kursorem na odpowiednią komórkę w tabeli.

Omówienie wykresu ciągu czasowego

Wykres ciągu czasowego przedstawia skuteczność maksymalnie 2 rodzajów danych w eksperymencie i pokazuje, jak zmieniały się one w czasie zarówno w kampaniach objętych eksperymentem, jak i w kampaniach z grupy kontrolnej. Wykres ten umożliwia porównywanie wpływu eksperymentów na określone dane i uzyskanie dodatkowych informacji o ich skuteczności w czasie.

Stosowanie lub kończenie eksperymentu

Aby zastosować eksperyment w kampanii lub go zakończyć z dowolnego powodu, w prawym dolnym rogu karty „Podsumowanie eksperymentu” nad wykresem ciągu czasowego kliknij przycisk „Zastosuj” lub „Zakończ”.

Sprawdzanie lub edytowanie kampanii porównywalnej z istniejącą kampanią Performance Max

Porównywalne kampanie domyślnie są wykluczane z raportów. Na stronie raportów nie będą widoczne porównywalne kampanie Performance Max, chyba że włączysz w Google Ads raportowanie porównywalnych kampanii.

W trakcie eksperymentu musisz edytować porównywalne kampanie ręcznie. Jeśli tego nie zrobisz, Google wybierze porównywalne kampanie za Ciebie. Po zakończeniu eksperymentu nie będziesz mieć możliwości dodania ani usunięcia porównywalnych kampanii.

  • Wyświetlanie wyników z porównywalnymi kampaniami: aby sprawdzić skuteczność eksperymentu w porównaniu z podobnymi kampaniami, w raportach Google Ads włącz przełącznik „Wyświetlanie wyników z porównywalnymi kampaniami”.
  • Edytowanie porównywalnych kampanii (do momentu zakończenia eksperymentu): przez cały czas trwania eksperymentu masz pełną kontrolę nad tym, które kampanie są uwzględniane jako „porównywalne”. Wystarczy zmienić wybrane opcje w eksperymentach związanych z kampaniami Performance Max. Jeśli nie wybierzesz porównywalnych kampanii ręcznie, Google wybierze je automatycznie. Po zakończeniu eksperymentu nie możesz dodawać porównywalnych kampanii do wyników ani takich kampanii z wyników usuwać.

Czy to było pomocne?

Jak możemy ją poprawić?
true
Achieve your advertising goals today!

Attend our Performance Max Masterclass, a livestream workshop session bringing together industry and Google ads PMax experts.

Register now

Szukaj
Wyczyść wyszukiwanie
Zamknij wyszukiwanie
Menu główne
17639648523824125881
true
Wyszukaj w Centrum pomocy
true
true
true
true
true
73067
false
false
false