Cet article vous explique comment surveiller et analyser les performances de vos tests.
Instructions
Afficher les performances de votre test
- Dans votre compte Google Ads, cliquez sur l'icône Campagnes
.
- Cliquez sur le menu déroulant Campagnes dans le menu des sections.
- Cliquez sur Tests.
- Trouvez le test dont vous souhaitez vérifier les performances, puis cliquez dessus.
- Passez en revue le tableau "Récapitulatif des tests" et le tableau de données, puis cliquez sur Appliquer le test ou Terminer le test selon ce que vous souhaitez faire.
Contenu du tableau de données
- Comparaison des performances indique la période pendant laquelle les performances de votre test sont comparées à celles de votre campagne d'origine. Seuls les jours entiers compris entre les dates de début et de fin, et la plage de dates sélectionnée pour le tableau en dessous, s'affichent ici. En l'absence de chevauchement, les jours complets entre les dates de début et de fin de votre test sont utilisés pour la "comparaison des performances".
- Les données sur les performances en termes de clics, CTR, coût, impressions et nombre total de conversions s'affichent par défaut. Vous pouvez cependant sélectionner les métriques que vous souhaitez afficher en cliquant sur la flèche vers le bas à côté du nom de la métrique qui vous intéresse. Vous avez le choix parmi les métriques suivantes :
- Clics
- CTR
- Coût
- CPC moy.
- Impr.
- Toutes les conversions (disponible seulement si vous avez configuré le suivi des conversions)
- Taux de conv. (disponible seulement si vous avez configuré le suivi des conversions)
- Conversions (disponible seulement si vous avez configuré le suivi des conversions)
- Coût/conv. (disponible seulement si vous avez configuré le suivi des conversions)
- Conv. après affichage (disponible seulement si vous avez configuré le suivi des conversions)
- Requêtes incrémentielles (disponible pour les tests de requête large)
- Sous le nom de chaque métrique, la première ligne comporte les données correspondantes associées à votre test. Par exemple, si 4 k s'affiche en dessous de "Clics", cela signifie que les annonces de votre test ont enregistré 4 000 clics depuis le début.
- La deuxième ligne affiche une estimation de la différence entre les performances du test et celles de la campagne d'origine.
- La première valeur indique la différence en termes de performances pour la métrique en question. Par exemple, si + 10 % s'affiche pour les clics, cela signifie que votre test a probablement enregistré 10 % de clics supplémentaires par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "--" s'affiche à cet endroit.
- La deuxième valeur montre que, si vous avez choisi un intervalle de confiance de 95 %, il s'agit de la marge potentielle de différence en termes de performances entre le test et la campagne d'origine. Par exemple, si [+ 8 %, + 12 %] s'affiche, cela signifie que le test est susceptible d'avoir généré une amélioration des performances entre 8 % et 12 % par rapport à la campagne d'origine. Si les données disponibles sont encore insuffisantes (que ce soit pour la campagne d'origine et/ou pour le test), "--" s'affiche à cet endroit. Vous pouvez choisir vos propres intervalles de confiance (80 % étant la valeur par défaut) et vous pourrez mieux comprendre les métriques de votre test avec un reporting dynamique basé sur la confiance.
- Un astérisque bleu s'affiche également si le résultat est pertinent d'un point de vue statistique.
Comprendre les métriques
Vous pouvez désormais utiliser les informations du tableau "Tests" pour interpréter les résultats d'un test et prendre les mesures appropriées. Ce tableau inclut les colonnes suivantes :
- Nom : nom du test. Vous pouvez cliquer dessus pour obtenir des informations supplémentaires.
- Type : type de test actuellement effectué (ex : test d'impact de Performance Max sur vos résultats, test display personnalisé, test vidéo et plus encore).
- État : phase actuelle du test (ex. : "En cours", "Terminé (appliqué)" ou "Planifié").
- Résultats : indique le bras le plus performant de la campagne pendant la durée du test.
- Campagne de contrôle : indique que le bras de contrôle a été plus performant que le bras de traitement lors du test.
- Campagne test : indique que le bras de traitement a été plus performant que le bras de contrôle lors du test.
- "Aucun vainqueur clairement identifié" ou "En cours" : indique que le vainqueur ne peut pas être désigné ou que les données sont pour l'instant insuffisantes. Nous vous recommandons d'exécuter le test pendant encore deux à trois semaines pour collecter assez de données. Si les résultats sont encore incertains, vous devrez peut-être augmenter votre budget ou poursuivre le test plus longtemps afin d'obtenir suffisamment de données pour désigner clairement un vainqueur.
- Actions : action recommandée pour le test (ex. : "Appliquer").
- Date de début : date de début de votre test.
- Date de fin : date de fin de votre test.
- Métriques : en fonction des objectifs, du type de test et des métriques sélectionnées lors de la création du test, vous pouvez consulter différentes métriques dans le tableau ("Conversions" ou "Valeur de conv", par exemple). Elles représentent le pourcentage de différentiel obtenu par le bras de traitement par rapport à la campagne de contrôle. Vous pouvez pointer sur le texte de cette colonne pour obtenir plus d'informations, y compris l'intervalle de confiance.
- Pour sélectionner des métriques supplémentaires, cliquez sur l'icône Colonne
, sélectionnez des métriques, puis cliquez sur Enregistrer. Vous pouvez aussi supprimer des colonnes de la même façon.
Conseil
Pointez sur cette deuxième ligne pour obtenir une explication plus détaillée. Voici les informations qui s'affichent :
- Pertinence statistique : indique le degré de pertinence statistique des données.
- Significatif d'un point de vue statistique : vos données ne sont probablement pas dues au hasard, et votre test est plus susceptible de continuer à obtenir des performances similaires une fois converti en campagne.
- Pas significatif d'un point de vue statistique : plusieurs raisons peuvent expliquer pourquoi vos données ne sont pas significatives d'un point de vue statistique. Dans le tableau de données, vous pouvez modifier la métrique affichée à l'aide du menu déroulant correspondant.
- Votre test n'a pas duré suffisamment longtemps.
- Votre campagne ne reçoit pas suffisamment de trafic.
- Votre répartition du trafic était trop faible, et votre test ne reçoit pas suffisamment de trafic.
- Les modifications effectuées n'ont pas entraîné de différences de performances statistiquement pertinentes.
- Intervalle de confiance : une explication s'affiche également concernant l'intervalle de confiance. Par exemple : "Il y a 95 % de probabilité que votre test enregistre une différence de + 10 % à + 20 % pour cette métrique par rapport à la campagne d'origine."
-
Enfin, les données réelles concernant cette métrique s'affichent pour le test et la campagne d'origine.
Actions pouvant être effectuées au niveau du tableau de données
- Vous pouvez modifier la métrique affichée à l'aide du menu déroulant correspondant.
- Pour afficher le tableau de données d'un groupe d'annonces spécifique du test, cliquez sur le groupe d'annonces en question dans le tableau en dessous.
- Pour afficher les détails de la campagne, comme son nom et son budget, pointez sur la cellule correspondante du tableau.
Comprendre le graphique de série temporelle
Le graphique de série temporelle indique les performances de deux métriques de votre test au maximum, et leur évolution au fil du temps dans les campagnes traitées et celles de contrôle. Vous pourrez ainsi comparer les effets de vos tests sur une métrique précise et découvrir comment ses performances changent au fil du temps.
Appliquer ou terminer un test
Si vous souhaitez appliquer un test à une campagne ou y mettre fin, cliquez sur le bouton "Appliquer" ou "Mettre fin" en bas à droite de la fiche "Récapitulatif du test", située au-dessus du graphique de série temporelle.
Comment appliquer automatiquement les résultats favorables (seulement disponible pour certains types de tests)
Cette fonctionnalité est activée par défaut. Si les résultats sont favorables par rapport à la campagne de base, la campagne test sera automatiquement appliquée et 100 % du trafic lui sera attribué. Vous pourrez ainsi profiter facilement des améliorations des performances identifiées lors des tests.
Remarque : Vous pouvez désactiver la fonctionnalité d'application automatique à tout moment pendant le test à partir de la page "Rapport".
Vous pouvez créer un test à l'aide des fiches de recommandations de la page "Tests". Vous pouvez alors choisir d'activer cette fonctionnalité. Une fois le test créé, une info-bulle indiquant l'état de la fonctionnalité apparaîtra sur la fiche récapitulative du test. Vous pourrez également activer ou désactiver cette fonctionnalité via cette info-bulle, qui indiquera alors ce changement d'état.
De plus, l'un des états suivants s'affichera peut-être dans la colonne "État" de la page "Tests" pour indiquer les tests qui ont été appliqués :
- Terminé (non appliqué)
- Terminé (application…)
- Terminé (appliqué ou converti)
Une fois le test terminé, l'état affiché dans l'info-bulle indique si vos modifications ont été appliquées ou non.
Autres informations propres à certains types de tests
Tests de requête large
Requêtes incrémentielles
Les tests de requête large (créés à partir de la page "Créer un test" ou des fiches de recommandations) fournissent désormais des insights plus détaillés avec les requêtes incrémentielles.
Les requêtes incrémentielles sont des termes de recherche qui correspondaient à un mot clé en requête large dans votre test, mais qui n'ont pas été mis en correspondance par le compte Google Ads au cours de la période du test. Ces requêtes ont enregistré au moins une conversion attribuée à leur clic.
Grâce aux requêtes incrémentielles, vous pouvez connaître le tout nouveau trafic mis en correspondance et converti par les mots clés en requête large de votre campagne qui n'avait pas été mis en correspondance ni converti par d'autres mots clés de votre compte au cours du test.
Si elles sont disponibles, vous pouvez consulter jusqu'à cinq des meilleures requêtes incrémentielles sur la page d'accueil "Tests" et la page "Rapport".
Tests Performance Max
Mise en veille ou suppression des campagnes test Performance Max
Vous pouvez à tout moment mettre en veille ou supprimer votre campagne test ou de contrôle. Pour la réactiver, il suffit de cliquer sur le bouton "Reprendre" pour réactiver toutes les campagnes. Vous pouvez également les réactiver manuellement une à une.
- Mettre en veille des campagnes :
- Si vous mettez la campagne test ou la campagne de contrôle en veille, l'ensemble du test le sera également. La totalité du trafic sera dirigé vers la campagne active.
- Si vous mettez la campagne test et la campagne de contrôle en veille, l'ensemble du test le sera également.
- État du test à la date de fin :
- À la date de fin du test, l'outil de synchronisation Performance Max basculera l'état du test sur "Terminé" ou "Lancé", indépendamment de l'application automatique. Toutefois, si les résultats du test sont probants et que l'application automatique est activée, elle fera automatiquement passer les tests terminés à l'étape suivante.
- Si, à la date de fin du test, l'application automatique est désactivée, vous devrez effectuer vous-même les modifications.
- Supprimer les campagnes :
- Si vous supprimez la campagne test ou de contrôle, la totalité du trafic sera dirigé vers la campagne active.
- Si vous ne supprimez que la campagne de contrôle, le test sera lancé.
- Si vous ne supprimez que la campagne test, celui-ci prendra fin.
- Si vous supprimez à la fois la campagne de contrôle et la campagne test, le test prendra fin.
- Si vous supprimez la campagne test ou de contrôle, la totalité du trafic sera dirigé vers la campagne active.
État de la campagne | Trafic après action de l'utilisateur | État du test avant la date de fin | État du test à la date de fin | |||||
Action utilisateur | Contrôle | Traitement | Contrôle | Traitement | ||||
Mise en veille de l'une ou l'autre des campagnes | En veille | Actif | 0 % | 100 % | En veille | Si l'application automatique est activée et que les résultats du bras de traitement sont probant, le test sera "Lancé". Sinon, il sera "Terminé". | ||
Actif | En veille | 100 % | 0 % | En veille | ||||
Mise en veille des deux campagnes | En veille | En veille | 0 % | 0 % | En veille | |||
Suppression de l'une ou l'autre des campagnes | Supprimée | Actif | 0 % | 100 % | Lancé | |||
Actif | Supprimée | 100 % | 0 % | Terminé | ||||
Suppression des deux campagnes | Supprimée | Supprimée | 0 % | 0 % | Terminé |
Vérifier ou modifier une campagne comparable à une campagne Performance Max existante
Lors du test, vous devrez les modifier manuellement, sinon Google les choisira à votre place. Une fois le test terminé, vous ne pourrez plus ajouter ni supprimer de campagnes comparables.
- Afficher les résultats à côté de campagnes comparables : pour comparer les performances de votre test à celles de campagnes similaires, activez le bouton "Afficher les résultats avec les campagnes comparables" dans vos rapports Google Ads.
- Modifier les campagnes comparables (jusqu'à la fin du test) : vous pouvez contrôler totalement les campagnes considérées comme "comparables" tout au long du test. Il vous suffit de modifier vos sélections dans vos tests Performance Max. Si vous ne choisissez pas vous-même vos campagnes comparables, Google le fera à votre place. À la fin du test, vous ne pourrez plus ajouter de campagnes comparables à vos résultats ni en supprimer.