Après avoir configuré un test vidéo, vous pouvez surveiller ses performances dans Google Ads et identifier les annonces vidéo les plus performantes dans les groupes de test. Vous aurez ainsi toutes les cartes en main pour désigner la campagne que vous devez continuer à diffuser et à laquelle affecter un budget plus élevé.
Cet article explique comment contrôler et analyser les performances d'un test vidéo.
Instructions
- Dans votre compte Google Ads, cliquez sur l'icône Campagnes .
- Cliquez sur le menu déroulant Campagnes dans le menu des sections.
- Cliquez sur Tests, puis sur Tests vidéo.
- Sélectionnez un test pour afficher ses résultats indicatifs (lorsqu'il est en cours) ou ses résultats concluants (lorsqu'il est terminé).
Résultats indicatifs et résultats concluants
Lorsque le test vidéo est encore en cours d'exécution et collecte des données, vous pouvez afficher le groupe de test qui selon les estimations est le plus performant, et obtenir ainsi des résultats indicatifs anticipés. Nous vous recommandons d'attendre la fin du test pour obtenir des résultats concluants, mais si vous manquez de temps et que les résultats indicatifs vous suffisent, vous pouvez les obtenir dès que le test atteint un seuil de confiance de 70 %. Vous pouvez également attendre que le test atteigne un seuil de confiance de 80 % (les résultats étant toujours considérés comme indicatifs) ou de 95 % (les résultats à ce stade étant considérés comme des résultats concluants).
Un seuil de confiance de 70 %, également désigné par "intervalle de confiance", signifie que si vous deviez répéter ce test, vous obtiendriez les mêmes résultats 70 % du temps. Si vous choisissez d'attendre des résultats concluants, vous les obtiendrez à un intervalle de confiance de 95 %.
Interpréter les résultats
- Pour évaluer vos résultats, concentrez-vous sur les valeurs en vert et en rouge dans votre métrique de succès ainsi que sur les autres métriques présentes dans le tableau du rapport. En effet, ces métriques vous aident à détecter les écarts de performances significatifs dans les groupes de test.
- Afin de lancer le calcul des écarts entre les groupes de test et le bras de contrôle pour chaque métrique de conversion (à l'exception du brand lift absolu), vous devez disposer d'au moins 100 conversions. Aucun nombre minimal d'actions n'est requis pour les autres métriques concernant les clics et les vues.
Métrique | Seuil d'actions | Signification |
---|---|---|
Taux de clics (CTR) | Aucune exigence particulière | Groupe avec le taux de clics le plus élevé |
Taux de conversion | ≥ 100 conversions | Groupe avec le taux de conversion le plus élevé |
Conversions | ≥ 100 conversions | Groupe avec le nombre de conversions le plus élevé |
Coût par clic (CPC) | Aucune exigence particulière | Groupe avec le coût par clic le plus faible |
Coût pour mille impressions (CPM) | Aucune exigence particulière | Groupe avec le coût pour mille impressions le plus faible |
Coût par vue (CPV) | Aucune exigence particulière | Groupe avec le coût par vue le plus faible |
Taux de visionnage de la vidéo | Aucune exigence particulière | Groupe avec le taux de vue le plus élevé |
Pour toutes les métriques
- Dès que l'écart par rapport au bras de contrôle devient statistiquement pertinent au niveau de confiance choisi (70 %, 80 % ou 95 %), vous commencerez à voir apparaître des résultats. Si vous voyez…
- "Performances similaires" : à ce niveau de confiance, il n'est statistiquement pas démontré que le groupe est plus ou moins performant que le bras de contrôle pour cette métrique.
- Une valeur en vert : à ce niveau de confiance, il est statistiquement démontré que le groupe est plus performant que le bras de contrôle pour cette métrique.
- Une valeur en rouge : à ce niveau de confiance, il est statistiquement démontré que le groupe est moins performant que le bras de contrôle pour cette métrique.
- Pour les métriques de conversion : si, dans votre test, vous avez sélectionné une métrique de conversion et une campagne ayant reçu moins de 100 conversions, un message concernant la "collecte de données" (si le test est encore en cours) ou des "données insuffisantes" (si le test est terminé) apparaîtra.
- Remarque : Si le budget est réparti équitablement entre les groupes de test, mais qu'une campagne enregistre plus d'impressions que l'autre, cela signifie que les campagnes participent à différentes enchères et remportent des enchères avec différentes offres. La campagne qui remporte le plus d'enchères à moindre coût enregistrera le plus grand nombre d'impressions. Un test garantit simplement qu'il n'y aura pas de chevauchement entre les utilisateurs d'un groupe et ceux d'un autre groupe.
Bonnes pratiques
- Prenez des mesures en fonction des résultats : si vous obtenez des résultats statistiquement pertinents dans l'un de vos groupes de test, vous pouvez maximiser l'impact en mettant en veille les autres groupes et en affectant l'intégralité du budget au groupe le plus efficace et performant.
- Tirez les leçons du passé : par exemple, si vous constatez qu'utiliser des assets vidéo personnalisés pour différents segments d'audience est plus efficace que présenter le même asset générique à toutes les audiences, tenez-en compte pour développer vos futurs assets vidéo.
- Des résultats peu concluants peuvent aussi être instructifs : par exemple, deux créations peuvent enregistrer des performances similaires dans le test, mais l'une d'entre elles peut être moins coûteuse à produire que l'autre.