Surveiller vos tests

Lorsque vous lancez une campagne test, il est important de savoir comment surveiller ses performances. En comparant les performances de votre test à celles de la campagne d'origine, vous pouvez décider de façon éclairée si vous devez mettre fin au test, l'appliquer à la campagne d'origine ou l'utiliser pour créer une autre campagne.

Cet article vous explique comment surveiller et analyser les performances de vos tests.

Instructions

Remarque : Les instructions ci-dessous font partie de la nouvelle interface de l'expérience utilisateur Google Ads. Pour utiliser l'ancienne interface, cliquez sur l'icône "Apparence", puis sélectionnez Utiliser l'ancienne interface. Si vous utilisez la version précédente de Google Ads, consultez l'aide-mémoire ou servez-vous de la barre de recherche dans le panneau de navigation supérieur de Google Ads pour trouver la page que vous recherchez.

Afficher les performances de votre test

  1. Dans votre compte Google Ads, cliquez sur l'icône Campagnes Campaigns Icon.
  2. Cliquez sur le menu déroulant Campagnes dans le menu des sections.
  3. Cliquez sur Tests.
  4. Trouvez le test dont vous souhaitez vérifier les performances, puis cliquez dessus.
  5. Passez en revue le tableau "Récapitulatif des tests" et le tableau de données, puis cliquez sur Appliquer le test ou Terminer le test selon ce que vous souhaitez faire.

Contenu du tableau de données

  • "Comparaison des performances" indique la période pendant laquelle les performances de votre test sont comparées à celles de votre campagne d'origine. Seuls les jours entiers compris entre les dates de début et de fin, et la plage de dates sélectionnée pour le tableau en dessous, s'affichent ici. En l'absence de chevauchement, les jours complets entre les dates de début et de fin de votre test sont utilisés pour la "comparaison des performances".
  • Les données sur les performances en termes de clics, CTR, coût, impressions et nombre total de conversions s'affichent par défaut. Vous pouvez cependant sélectionner les métriques que vous souhaitez afficher en cliquant sur la flèche vers le bas à côté du nom de la métrique qui vous intéresse. Vous avez le choix parmi les métriques suivantes :
  • La première ligne en dessous du nom de chaque métrique comporte les données correspondantes associées à votre test. Par exemple, si 4 K s'affiche en dessous de "Clics", cela signifie que les annonces de votre test ont enregistré 4 000 clics depuis le début du test.
  • La deuxième ligne affiche une estimation de la différence entre les performances du test et celles de la campagne d'origine.
    • La première valeur indique la différence en termes de performances pour la métrique en question. Par exemple, si + 10 % s'affiche pour les clics, cela signifie que votre test a probablement enregistré 10 % de clics supplémentaires par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "--" s'affiche à cet endroit.
    • La deuxième valeur montre que, si vous avez choisi un intervalle de confiance de 95 %, il s'agit de la marge potentielle de différence en termes de performances entre le test et la campagne d'origine. Par exemple, si [+ 8 %, + 12 %] s'affiche, cela signifie que le test est susceptible d'avoir généré une amélioration des performances entre 8 % et 12 % par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "--" s'affiche à cet endroit. Vous pouvez choisir vos propres intervalles de confiance (80 % étant la valeur par défaut) et vous pourrez mieux comprendre les métriques de votre test avec un reporting dynamique basé sur la confiance.
    • Un astérisque bleu s'affiche également si le résultat est pertinent d'un point de vue statistique.

Astuce

Pointez sur cette deuxième ligne pour obtenir une explication plus détaillée. Voici les informations qui s'affichent :

Pertinence statistique : indique le degré de pertinence statistique des données.
  • Significatif d'un point de vue statistique : cela signifie que votre valeur p est inférieure ou égale à 5 %. En d'autres termes, vos données ne sont probablement pas dues au hasard, et votre test est plus susceptible de continuer à obtenir des performances similaires une fois converti en campagne.
  • Pas significatif d'un point de vue statistique : cela signifie que votre valeur p est supérieure ou égale à 5 %. Voici quelques raisons possibles :
    • La durée du test est trop courte.
    • Votre campagne ne reçoit pas suffisamment de trafic.
    • Votre répartition du trafic était trop faible, et votre test ne reçoit pas suffisamment de trafic.
    • Les modifications effectuées n'ont pas entraîné de différences de performances statistiquement pertinentes.
  • Dans les deux cas, une explication indique le degré de probabilité que les données soient dues au hasard. Par exemple : "Il y a 0,2 % (valeur p) de probabilité que ces performances (ou une différence plus élevée au niveau des performances) soient dues au hasard. Plus la valeur p est faible, plus le résultat est significatif."
  • Intervalle de confiance : une explication s'affiche également concernant l'intervalle de confiance. Par exemple : "Il y a 95 % de probabilité que votre test enregistre une différence de + 10 % à + 20 % pour cette métrique par rapport à la campagne d'origine."
  • Enfin, les données réelles concernant cette métrique s'affichent pour le test et la campagne d'origine.

Actions pouvant être effectuées au niveau du tableau de données

  • Vous pouvez modifier la métrique affichée à l'aide du menu déroulant correspondant.
  • Pour afficher le tableau de données d'un groupe d'annonces spécifique du test, cliquez sur le groupe d'annonces en question dans le tableau en dessous.
  • Pour afficher les détails de la campagne, comme son nom et son budget, pointez sur la cellule correspondante du tableau.

Comprendre le graphique de série temporelle

Le graphique de série temporelle indique les performances de deux métriques de votre test au maximum, et leur évolution au fil du temps dans les campagnes traitées et celles de contrôle. Vous pourrez ainsi comparer les effets de vos tests sur une métrique précise et découvrir comment ses performances changent au fil du temps.

Appliquer ou terminer un test

Si vous souhaitez appliquer ou terminer un test, cliquez sur le bouton "Appliquer" ou "Terminer" en bas à droite de la fiche "Récapitulatif des tests", située au-dessus du graphique de série temporelle.

Ces informations vous-ont elles été utiles ?

Comment pouvons-nous l'améliorer ?
true
Achieve your advertising goals today!

Attend our Performance Max Masterclass, a livestream workshop session bringing together industry and Google ads PMax experts.

Register now

Recherche
Effacer la recherche
Fermer le champ de recherche
Applications Google
Menu principal
8828394582558752580
true
Rechercher dans le centre d'aide
true
true
true
true
true
73067
false
false
false