Surveiller vos tests

Lorsque vous lancez une campagne test, il est important de savoir comment surveiller ses performances. En comparant les performances de votre test à celles de la campagne d'origine, vous pouvez décider de façon éclairée si vous devez mettre fin au test, l'appliquer à la campagne d'origine ou l'utiliser pour créer une autre campagne.

Cet article vous explique comment surveiller et analyser les performances de vos tests.

Instructions

Afficher les performances de votre test

  1. Dans votre compte Google Ads, cliquez sur l'icône Campagnes Icône Campagnes.
  2. Cliquez sur le menu déroulant Campagnes dans le menu des sections.
  3. Cliquez sur Tests.
  4. Trouvez le test dont vous souhaitez vérifier les performances, puis cliquez dessus.
  5. Passez en revue le tableau "Récapitulatif des tests" et le tableau de données, puis cliquez sur Appliquer le test ou Terminer le test selon ce que vous souhaitez faire.

Contenu du tableau de données

  • "Comparaison des performances" indique la période pendant laquelle les performances de votre test sont comparées à celles de votre campagne d'origine. Seuls les jours entiers compris entre les dates de début et de fin, et la plage de dates sélectionnée pour le tableau en dessous, s'affichent ici. En l'absence de chevauchement, les jours complets entre les dates de début et de fin de votre test sont utilisés pour la "comparaison des performances".
  • Les données sur les performances en termes de clics, CTR, coût, impressions et nombre total de conversions s'affichent par défaut. Vous pouvez cependant sélectionner les métriques que vous souhaitez afficher en cliquant sur la flèche vers le bas à côté du nom de la métrique qui vous intéresse. Vous avez le choix parmi les métriques suivantes :
  • La première ligne en dessous du nom de chaque métrique comporte les données correspondantes associées à votre test. Par exemple, si 4 K s'affiche en dessous de "Clics", cela signifie que les annonces de votre test ont enregistré 4 000 clics depuis le début du test.
  • La deuxième ligne affiche une estimation de la différence entre les performances du test et celles de la campagne d'origine.
    • La première valeur indique la différence en termes de performances pour la métrique en question. Par exemple, si + 10 % s'affiche pour les clics, cela signifie que votre test a probablement enregistré 10 % de clics supplémentaires par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "--" s'affiche à cet endroit.
    • La deuxième valeur montre que, si vous avez choisi un intervalle de confiance de 95 %, il s'agit de la marge potentielle de différence en termes de performances entre le test et la campagne d'origine. Par exemple, si [+ 8 %, + 12 %] s'affiche, cela signifie que le test est susceptible d'avoir généré une amélioration des performances entre 8 % et 12 % par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "--" s'affiche à cet endroit. Vous pouvez choisir vos propres intervalles de confiance (80 % étant la valeur par défaut) et vous pourrez mieux comprendre les métriques de votre test avec un reporting dynamique basé sur la confiance.
    • Un astérisque bleu s'affiche également si le résultat est pertinent d'un point de vue statistique.

Astuce

Pointez sur cette deuxième ligne pour obtenir une explication plus détaillée. Voici les informations qui s'affichent :

Pertinence statistique : indique le degré de pertinence statistique des données.
  • Significatif d'un point de vue statistique : cela signifie que votre valeur p est inférieure ou égale à 5 %. En d'autres termes, vos données ne sont probablement pas dues au hasard, et votre test est plus susceptible de continuer à obtenir des performances similaires une fois converti en campagne.
  • Pas significatif d'un point de vue statistique : cela signifie que votre valeur p est supérieure ou égale à 5 %. Voici quelques raisons possibles :
    • La durée du test est trop courte.
    • Votre campagne ne reçoit pas suffisamment de trafic.
    • Votre répartition du trafic était trop faible, et votre test ne reçoit pas suffisamment de trafic.
    • Les modifications effectuées n'ont pas entraîné de différences de performances statistiquement pertinentes.
  • Dans les deux cas, une explication indique le degré de probabilité que les données soient dues au hasard. Par exemple : "Il y a 0,2 % (valeur p) de probabilités que ces performances (ou une différence plus élevée au niveau des performances) soient dues au hasard. Plus la valeur p est faible, plus le résultat est significatif."
  • Intervalle de confiance : une explication s'affiche également concernant l'intervalle de confiance. Par exemple : "Il y a 95 % de probabilité que votre test enregistre une différence de + 10 % à + 20 % pour cette métrique par rapport à la campagne d'origine."
  • Enfin, les données réelles concernant cette métrique s'affichent pour le test et la campagne d'origine.

Actions pouvant être effectuées au niveau du tableau de données

  • Vous pouvez modifier la métrique affichée à l'aide du menu déroulant correspondant.
  • Pour afficher le tableau de données d'un groupe d'annonces spécifique du test, cliquez sur le groupe d'annonces en question dans le tableau en dessous.
  • Pour afficher les détails de la campagne, comme son nom et son budget, pointez sur la cellule correspondante du tableau.

Comprendre le graphique de série temporelle

Le graphique de série temporelle indique les performances de deux métriques de votre test au maximum, et leur évolution au fil du temps dans les campagnes traitées et celles de contrôle. Vous pourrez ainsi comparer les effets de vos tests sur une métrique précise et découvrir comment ses performances changent au fil du temps.

Mise en veille ou suppression des campagnes test Performance Max

Vous pouvez à tout moment mettre en veille ou supprimer votre campagne test ou de contrôle. Pour la réactiver, il suffit de cliquer sur le bouton "Reprendre" pour réactiver toutes les campagnes. Vous pouvez également les réactiver manuellement une à une.

  • Mettre en veille des campagnes :
    • Si vous mettez la campagne test ou la campagne de contrôle en veille, l'ensemble du test le sera également. La totalité du trafic sera dirigé vers la campagne active.
    • Si vous mettez la campagne test et la campagne de contrôle en veille, l'ensemble du test le sera également.
    • État du test à la date de fin :
      • À la date de fin du test, l'outil de synchronisation Performance Max basculera l'état du test sur "Terminé" ou "Lancé", indépendamment de l'application automatique. Toutefois, si les résultats du test sont probants et que l'application automatique est activée, elle fera automatiquement passer les tests terminés à l'étape suivante.
      • Si, à la date de fin du test, l'application automatique est désactivée, vous devrez effectuer vous-même les modifications.
  • Supprimer les campagnes :
    • Si vous supprimez la campagne test ou de contrôle, la totalité du trafic sera dirigé vers la campagne active.
      • Si vous ne supprimez que la campagne de contrôle, le test sera lancé.
      • Si vous ne supprimez que la campagne de test, celui-ci prendra fin.
    • Si vous supprimez la campagne de contrôle et de test, celui-ci prendra fin.
Remarque : Cela ne concerne que les tests Performance Max, y compris Amélioration, Mises à niveau et Optimisation (Extension d'URL finale).
  État de la campagne Trafic après action de l'utilisateur État du test avant la date de fin État du test à la date de fin
Action utilisateur Contrôle Traitement Contrôle Traitement
Mise en veille de l'une ou l'autre des campagnes En veille Actif 0 % 100 % En veille Si l'application automatique est activée et que les résultats du bras de traitement sont probant, le test sera "Lancé". Sinon, il sera "Terminé".
Actif En veille 100 % 0 % En veille
Mise en veille des deux campagnes En veille En veille 0 % 0 % En veille
Suppression de l'une ou l'autre des campagnes Supprimée Actif 0 % 100 % Lancé
Actif Supprimée 100 % 0 % Terminé
Suppression des deux campagnes Supprimée Supprimée 0 % 0 % Terminé

Appliquer ou terminer un test

Si vous souhaitez appliquer un test à une campagne ou y mettre fin, cliquez sur le bouton "Appliquer" ou "Mettre fin" en bas à droite de la fiche "Récapitulatif du test", située au-dessus du graphique de série temporelle.

Vérifier ou modifier une campagne comparable à une campagne Performance Max existante

Par défaut, les campagnes comparables sont exclues des rapports, sauf si vous décidez de les y inclure dans Google Ads. Cela signifie que votre page "Rapport" n'affichera pas de campagnes Performance Max comparables.

Lors du test, vous devrez les modifier manuellement, sinon Google les choisira à votre place. Une fois le test terminé, vous ne pourrez plus ajouter ni supprimer de campagnes comparables.

  • Afficher les résultats à côté de campagnes comparables : pour comparer les performances de votre test à celles de campagnes similaires, activez le bouton "Afficher les résultats avec les campagnes comparables" dans vos rapports Google Ads.
  • Modifier les campagnes comparables (jusqu'à la fin du test) : vous pouvez contrôler totalement les campagnes considérées comme "comparables" tout au long du test. Il vous suffit de modifier vos sélections dans vos tests Performance Max. Si vous ne choisissez pas vous-même vos campagnes comparables, Google le fera à votre place. À la fin du test, vous ne pourrez plus ajouter de campagnes comparables à vos résultats ni en supprimer.

Ces informations vous-ont elles été utiles ?

Comment pouvons-nous l'améliorer ?
true
Achieve your advertising goals today!

Attend our Performance Max Masterclass, a livestream workshop session bringing together industry and Google ads PMax experts.

Register now

Recherche
Effacer la recherche
Fermer le champ de recherche
Menu principal
17864512211231065971
true
Rechercher dans le centre d'aide
true
true
true
true
true
73067
false
false
false