Surveiller vos campagnes tests

Lorsque vous lancez une campagne test, il est important de savoir comment surveiller ses performances. Grâce à l'analyse des performances de votre test par rapport à celles de la campagne d'origine, vous pouvez décider de façon éclairée si vous devez mettre fin au test, l'appliquer à la campagne d'origine ou l'utiliser pour créer une autre campagne.

Cet article vous explique comment surveiller et analyser les performances de vos tests.

Instructions

Afficher les performances de votre test

  1. Connectez-vous à votre compte Google Ads.
  2. Trouvez, puis cliquez sur le test dont vous souhaitez vérifier les performances. 
  3. Un tableau de données s'affiche en haut de la page.

Contenu du tableau de données

  • "Comparaison des performances" indique la période pendant laquelle les performances de votre test sont comparées à celles de votre campagne d'origine. Seuls les jours entiers compris entre les dates de début et de fin, et la plage de dates sélectionnée pour le tableau en dessous, s'affichent ici. En l'absence de chevauchement, les jours complets entre les dates de début et de fin de votre test sont utilisés pour la "comparaison des performances".
  • Les données sur les performances en termes de clics, CTR, coût, impressions et nombre total de conversions s'affichent par défaut. Vous pouvez cependant sélectionner les statistiques que vous souhaitez afficher en cliquant sur la flèche pointant vers le bas à côté du nom de la statistique qui vous intéresse. Vous pouvez choisir parmi les statistiques suivantes : 
  • La première ligne en dessous du nom de chaque statistique comporte les données correspondantes associées à votre test. Par exemple, si 4 K s'affiche en dessous de "Clics", cela signifie que les annonces de votre test ont enregistré 4 000 clics depuis le début du test.
  • La deuxième ligne affiche une estimation de la différence entre les performances du test et celles de la campagne d'origine.
    • La première valeur indique la différence en termes de performances pour la statistique en question. Par exemple, si + 10 % s'affiche pour les clics, cela signifie que votre test a probablement enregistré 10 % de clics supplémentaires par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "–" s'affiche à cet endroit.
    • La deuxième valeur indique l'intervalle de confiance de 95 %. Il s'agit dans ce cas de la marge potentielle de différence en termes de performances entre le test et la campagne d'origine. Par exemple, si [+ 8 %, + 12 %] s'affiche, cela signifie que le test est susceptible d'avoir généré une amélioration des performances entre 8 % et 12 % par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "–" s'affiche à cet endroit.
    • Un astérisque bleu s'affiche également si le résultat est pertinent d'un point de vue statistique.
       
Pointez votre curseur sur cette deuxième ligne pour obtenir une explication plus détaillée. Voici les informations qui s'affichent :
 
Pertinence statistique : indique le degré de pertinence des données. 
 
  • Significatif d'un point de vue statistique : cela signifie que votre valeur p est inférieure ou égale à 5 %. En d'autres termes, vos données ne sont probablement pas dues au hasard, et votre test est plus susceptible de continuer à obtenir des performances similaires une fois transformé en campagne. 
  • Pas significatif d'un point de vue statistique : cela signifie que votre valeur p est supérieure ou égale à 5 %. Voici quelques raisons possibles :
    • La durée du test est trop courte.
    • Votre campagne ne reçoit pas suffisamment de trafic.
    • Votre répartition du trafic était trop faible, et votre test ne reçoit pas suffisamment de trafic.
    • Les modifications effectuées n'ont pas entraîné de différences de performances pertinentes d'un point de vue statistique. 
  • Dans les deux cas, une explication comme la suivante indique le degré de probabilité que les données soient dues au hasard : "Il y a 0,2 % (valeur p) de probabilités que ces performances (ou une différence plus élevée au niveau des performances) soient dues au hasard. Plus la valeur p est faible, plus le résultat est significatif."
  • Intervalle de confiance : une explication comme la suivante s'affiche également concernant l'intervalle de confiance : "Il y a 95 % de probabilités que votre test enregistre une différence de + 10 % à + 20 % pour cette statistique par rapport à la campagne d'origine".
  • Enfin, les données réelles concernant cette statistique s'affichent pour le test et la campagne d'origine.
     

Actions pouvant être effectuées au niveau du tableau de données

  • Vous pouvez modifier la statistique affichée à l'aide du menu déroulant correspondant.
  • Pour afficher le tableau de données d'un groupe d'annonces spécifique du test, cliquez sur le groupe d'annonces en question dans le tableau en dessous. 

 

Ces informations vous-ont elles été utiles ?
Comment pouvons-nous l'améliorer ?

Vous avez encore besoin d'aide ?

Connectez-vous pour accéder à des options d'assistance supplémentaires afin de résoudre rapidement votre problème.