Notification

Sachez que l'équipe du service client ne propose pas de services de dépannage dans votre langue d'affichage actuelle. Pour la contacter, veuillez d'abord passer à l'anglais ou à une autre langue acceptée (espagnol, japonais ou portugais).

Tester les annonces

Les tests Display & Video 360 constituent une structure de test intégrée qui vous permet de lancer des tests A/B sur un groupe de créations, d'audiences, de stratégies d'enchères ou de méthodes de ciblage, ou sur ce genre d'éléments individuellement, en comparant les ordres d'insertion ou les éléments de campagne.

Vous pouvez catégoriser les utilisateurs dans des tests et des groupes qui s'excluent mutuellement pour tester différentes combinaisons de ciblage, paramètres et créations afin de déterminer laquelle est la plus performante. Utilisez ces informations pour optimiser les performances des campagnes en cours de diffusion ou pour planifier de futures campagnes.

Avec les tests, vous pouvez :

  • tester chaque dimension affectant une campagne, y compris le ciblage, les paramètres, les créations et plus encore ;
  • générer des rapports sur des métriques clés (CPC, CTR, CPA, taux de conversion, CPM, etc.).

Identification basée sur l'utilisateur

Display & Video 360 utilise des identifiants basés sur l'utilisateur pour permettre à vos tests de s'adapter si des ID tiers sont abandonnés. Pour cela, l'interface utilise des identifiants de secours pour la redirection si aucun ID tiers n'est disponible. Vous aurez ainsi plus de chances qu'un identifiant soit disponible pour chaque impression d'annonce.

Exemple :
Si un ID tiers n'est pas disponible, l'ID propriétaire est utilisé. Sinon, c'est un identifiant au niveau de la requête qui est utilisé.   

Par défaut, les tests utilisent l'identification basée sur l'utilisateur et la redirection aléatoire pour maximiser la participation. Vous pouvez exclure les utilisateurs non identifiés en filtrant le trafic sans ID tiers afin de réduire la contamination entre les groupes. Toutefois, cela réduit le nombre d'utilisateurs participant à votre test. 

Concepts

Valeurs réelles

Résultats bruts du test. Représente le nombre réel de conversions enregistrées par la variante.

Groupe

Un groupe peut contenir les éléments suivants :

  • Un élément de campagne ou un ordre d'insertion spécifique
  • Un ensemble d'éléments de campagne ou d'ordres d'insertion

Par exemple, une référence et sa variante sont des groupes distincts du test.

Référence

Élément de campagne ou ordre d'insertion qui sert de comparaison lors du test. Vous pouvez créer des variantes et les comparer à la référence d'origine.

Intervalle de confiance

Il indique le degré de certitude que la différence réelle entre les variantes se situe dans la plage mentionnée. Vous pouvez spécifier une probabilité de 90 % ou 95 % que la valeur réelle soit comprise dans la plage indiquée.

Par exemple, un intervalle de confiance de 90 % doit montrer que 90 des 100 tests répétés présentent une différence comprise dans la plage indiquée.

Valeurs normalisées

Représente la valeur la plus élevée des clics, des conversions, des impressions ou des revenus calculée en adaptant la valeur réelle de la référence ou de la variante à 100 % de la part d'audience.

Prenons l'exemple d'un élément de campagne ayant enregistré 170 000 conversions avec une part d'audience de 34 %. La valeur normalisée est de 500 000 conversions pour le même élément de campagne avec 100 % de la part d'audience.

Valeur p

Représente la probabilité calculée que la différence pourrait être due au hasard.

Elle permet de déterminer la pertinence statistique du résultat pour évaluer la probabilité d'une différence réelle de performances entre la référence et la variante :

  • Une valeur p plus faible constitue une preuve plus tangible d'une différence de performances. Les résultats sont donc significatifs.
  • Une valeur p plus élevée indique que les résultats peuvent être dus au hasard. Les résultats sont donc négligeables.

Variante

Élément de campagne ou ordre d'insertion test pour lequel une seule variable est testée par rapport à l'élément de campagne ou à l'ordre d'insertion de référence.

Configurer un test

  1. Au niveau de l'annonceur, cliquez sur Tests dans le menu de gauche.
  2. Dans l'onglet Tests A/B, sélectionnez Créer.
  3. Choisissez l'une des options suivantes :
    • Plusieurs places de marché
    • YouTube et partenaires
  4. Saisissez les informations suivantes :
    1. Nom : saisissez un identifiant pour votre test et (facultatif) un énoncé d'hypothèse.

    2. Durée du test (dates de début et de fin) : 

      • Date de début : définit quand commence le test. Cette date doit être postérieure à la date du jour. 

      • Date de fin : facultative (détermine quand se finit le test). Si vous n'indiquez pas de date de fin, votre test sera exécuté indéfiniment.

        Dans la mesure du possible, faites correspondre les dates de début et de fin du test à celles des éléments de campagne ou des ordres d'insertion du test.

        Exemple :

        • Si vous arrêtez un test avant la date de fin des ordres d'insertion ou des éléments de campagne, il ne respectera pas la répartition de l'audience et ne sera pas diffusé auprès de 100 % des utilisateurs.

        Les métriques d'un test reposent uniquement sur les impressions diffusées après sa date de début. Les rapports peuvent comptabiliser un nombre différent de conversions si l'élément de campagne était actif avant ou après les dates du test.

    3. Groupes de test: indiquez si vous comparez des ordres d'insertion ou des éléments de campagne.

      • Selon le type de test, choisissez au moins deux ordres d'insertion ou éléments de campagne,

        1. Comparer individuellement : sélectionnez des ordres d'insertion spécifiques à inclure dans le test.
          • Si vous utilisez plusieurs ordres d'insertion, vous pouvez ajuster la part d'audience pour contrôler la façon dont les cookies sont répartis entre les différents éléments de campagne ou ordres d'insertion du test.
          • Si vous disposez de plusieurs ordres d'insertion, vous pouvez identifier le groupe de contrôle en définissant l'ordre d'insertion comme référence.
        2. Comparer des groupes : sélectionnez des ensembles d'ordres d'insertion à inclure dans chaque groupe du test.
          • Vous pouvez ajuster la part d'audience pour contrôler la façon dont les cookies sont répartis entre les différents éléments de campagne ou ordres d'insertion du test.
          • Pour identifier le groupe de contrôle, définissez l'ordre d'insertion comme référence.
    4. Mesurer :

      1. Objectifs de l'étude : sélectionnez l'objectif que vous souhaitez mesurer dans le test.
        • Conversions
        • Clics
        • Visionnages complets de la vidéo
        • Valeur totale des impressions personnalisées (en cas d'utilisation des enchères personnalisées)
      2. Intervalle de confiance : sélectionnez 95 % (valeur la plus courante) ou 90 %.
      3. Participation (tests multi-places de marché uniquement):  par défaut, cette option est configurée pour maximiser la participation au test à l'aide d'identifiants au niveau de l'utilisateur et d'une redirection aléatoire.
        • Vous pouvez activer l'option Exclure les utilisateurs non identifiés pour exclure le trafic sans ID tiers afin de limiter la contamination entre les groupes.
          Remarque : Exclure les utilisateurs non identifiés peut rendre votre test non représentatif en raison de la baisse de la participation.
      4. Configuration de l'étude d'impact (facultatif, et tests YouTube et partenaires uniquement) :
        • Cochez la case "Brand lift".
        • Sélectionnez jusqu'à trois métriques Brand Lift à mesurer. La barre latérale de gauche affiche les critères d'éligibilité pour mesurer l'impact et indique si vos groupes de test sont éligibles. Découvrez comment configurer la mesure du brand lift.
        • Saisissez les détails d'enquête suivants :
          • Nom de votre marque ou de votre produit
          • Jusqu'à trois noms de marques ou de produits concurrents.
        • Saisissez les paramètres d'enquête suivants :
          • Langue: langue utilisée pour l'enquête.
          • Type d'objet: secteur ou domaine que vous souhaitez étudier.
          • Action prévue: action que l'utilisateur doit effectuer après avoir vu votre annonce.
  5. Cliquez sur Enregistrer.

Évaluer les résultats d'un test

  1. Commencez dans le compte d'annonceur.
  2. Dans le menu de gauche, accédez à Tests.
  3. Dans l'onglet Tests A/B , cliquez sur le lien Nom de l'étude pour afficher les résultats d'un test.
    1. Si vous configurez une étude Brand Lift dans un test, cliquez sur Afficher le rapport Brand Lift à côté du nom du groupe de test pour consulter les résultats.
  4. Sous l'onglet Résultats du test :

    1. Sous Conversions (objectif principal), vous pouvez afficher un récapitulatif des résultats, y compris un graphique afin de comprendre la différence entre la référence et les variantes, ainsi que l'augmentation :

      1. Métrique: vous pouvez évaluer la différence entre votre référence et les variantes pour vérifier la pertinence statistique.
      2. État : indique si les résultats sont ou non pertinents d'un point de vue statistique. Un résultat est pertinent d'un point de vue statistique lorsqu'il y a une différence significative entre la référence et une variante de l'objectif du test.
      3. Dates du test : dates que vous avez définies pour le test.
      4. Type : indique si vous avez choisi de comparer des ordres d'insertion ou des éléments de campagne.
      5. Niveau de confiance : niveau de confiance que vous avez défini pour le test.
      6. Intervalle de confiance : lorsqu'il est activé, il applique le niveau de confiance défini pour le test. 
  5. Vous pouvez mettre à jour vos résultats de différentes manières :

    • Sélectionner une référence : par défaut, le graphique compare la référence à plusieurs variantes. Vous pouvez sélectionner une variante à utiliser comme référence dans la liste Référence.

    • Sélectionner un modèle d'attribution : lorsque vous consultez les résultats d'un test de conversion, vous pouvez choisir un modèle dans la liste Modèles d'attribution.

  6. Vous pouvez éventuellement configurer deux études Brand Lift indépendantes comme groupes de test et consulter leurs résultats. Pour afficher les résultats concernant le Brand Lift dans la section Tests :

    Si vous avez créé des études Brand Lift pour les ordres d'insertion d'un test, elles sont automatiquement définies sur la mesure accélérée. L'étude Brand Lift essayera de recueillir des réponses à l'enquête dès que possible et s'arrêtera lorsque le nombre cible de réponses sera atteint.
    • Les dates de début des études Brand Lift et du test doivent être identiques.
    • la sélection des métriques et les questions de l'enquête doivent être identiques.
    • Exemple avec deux campagnes : vous pouvez effectuer une étude Brand Lift pour chaque campagne et créer un test avec deux groupes représentant chaque campagne. Si l'étude sur le brand lift est terminée, vous pouvez consulter vos résultats même si le test est toujours en cours.

Examiner les différences d'un test

Accédez à l'onglet Diff. pour examiner les différences entre les branches d'un test. Cela vous permet de voir si la seule différence est la variable avec laquelle vous effectuez le test. Vous pouvez corriger toute différence avant le lancement du test, éliminant ainsi les biais potentiels ou le risque que le test fournisse des résultats non pertinents. Lorsque des groupes de variantes sont associés à plusieurs éléments de campagne, Display & Video 360 établit une correspondance automatique en fonction du nombre minimal de différences observées.

Notez que l'outil Diff est destiné au contrôle qualité, mais qu'il risque de ne pas être utile rétroactivement. L'outil Diff compare les éléments de campagne et les ordres d'insertion dans leur état actuel, et non dans l'état dans lequel ils étaient lors de l'exécution du test. Cet outil reflète donc toutes les modifications survenues après le test (y compris l'archivage d'éléments de campagne), même si elles n'ont pas eu d'incidence sur le test.

Bonnes pratiques

Tenez compte des points suivants lors de la planification d'un test.

Planification et configuration
  • Testez seulement une variable à la fois. Reprenez les mêmes groupes (référence et variantes) et ne changez qu'une seule variable.

  • Créez des copies d'ordres d'insertion ou d'éléments de campagne pour vos tests, ne partez pas de zéro. Hormis la variable unique que vous testez, vous êtes certain que les éléments du test seront identiques.

  • N'utilisez que des nouveaux ordres d'insertion ou éléments de campagne dans vos tests. Si des activités ont déjà été enregistrées pour un ordre d'insertion ou un élément de campagne en dehors du test, la comptabilisation des conversions risque d'être affectée.

  • Éliminez tout facteur extérieur. Assurez-vous que vos autres éléments de campagne ne soient pas en concurrence avec les budgets des éléments de votre test. Si possible, utilisez un ordre d'insertion distinct pour tous les éléments de campagne qui seront utilisés dans un test.

    Essayez également de ne pas réutiliser la création d'un test ailleurs que dans celui-ci.

  • Définissez une limite du nombre d'expositions suffisamment élevée. Si vous utilisez des ordres d'insertion dans le test, vérifiez que la limite du nombre d'expositions de la campagne est au moins égale à la somme de la limite la plus élevée entre les différents ordres d'insertion inclus dans le test et de toutes les limites des autres ordres d'insertion.

    Prenons l'exemple d'une campagne contenant 3 ordres d'insertion, dont 2 sont inclus dans un test. Pour déterminer la limite du nombre d'expositions minimale de cette campagne, vous devez ajouter la limite la plus élevée entre les deux ordres d'insertion du test à la limite du 3e ordre d'insertion qui ne fait pas partie du test. Supposons que les ordres d'insertion du test soient respectivement associés à une limite du nombre d'expositions de 10 et 8. Pour le troisième ordre d'insertion, non inclus dans le test, la limite est de 5. La limite du nombre d'expositions de la campagne sera égale à 15, soit 10 (limite la plus élevée entre tous les ordres d'insertion du test) plus 5 (somme des limites des ordres d'insertion restants hors test).

    Cette recommandation vaut également pour la limitation du nombre d'expositions au niveau des éléments de campagne, si votre test repose sur ce type d'éléments.

  • Fixez délibérément le budget et le rythme de diffusion. Le budget alloué à chaque section du test doit être proportionnel à la répartition de l'audience. Sinon, il sera considéré comme une variable du test. Le rythme de diffusion doit lui aussi rester identique, sans quoi il deviendra une autre variable du test. Cette bonne pratique doit être appliquée au-delà des éléments de campagne d'un test, c'est-à-dire aux éléments hors test qui sont associés au même ordre d'insertion. La capacité à dépenser le budget et à suivre le rythme de diffusion affecte la façon dont les éléments de campagne du test achètent l'inventaire, et influence donc les résultats.

  • Soyez prudent si votre audience est limitée. Si vous prévoyez que votre audience sera limitée (parce que vous achetez un inventaire d'accords ou un inventaire d'audience de faible portée, par exemple), les tests peuvent générer de grands intervalles de confiance. Il sera alors difficile d'évaluer l'efficacité de vos variantes.

  • Anticipez la finalisation du test. Les tests doivent durer suffisamment longtemps pour que toutes les créations soient approuvées avant de commencer à être diffusées.

En cours de test
  • N'interrompez pas le test. Si vous avez besoin de mettre en veille temporairement une campagne tout en poursuivant le test, mettez en pause les sections (sans en oublier aucune), mais pas le test lui-même. Au moment de réactiver la campagne, pensez à activer toutes les sections en même temps.

    Un test qui a été arrêté ne peut pas être redémarré. De plus, toutes les entités qui lui sont affectées seront de nouveau présentées à 100 % de vos utilisateurs.
  • Uniformisez vos modifications. Si vous voulez modifier vos ordres d'insertion ou vos éléments de campagne pendant un test, assurez-vous d'appliquer la même modification à tous les groupes du test. Cette étape peut être nécessaire pour supprimer un site qui ne respecte pas les consignes de brand suitability.

Remarques

  • Il est impossible de lancer un test pour les inventaires contenant :
    • des éléments de campagne par défaut du programmatique garanti ou des ordres d'insertion qui incluent des éléments de campagne par défaut.
    • Inventaire de réservation instantanée
  • Un test peut être lancé 24 heures après avoir été configuré. Vous ne pouvez sélectionner ni la date du jour, ni celle du lendemain comme date de début du test lors de la configuration.
  • Un élément de campagne ou un ordre d'insertion ne peut être utilisé que dans un seul test actif à la fois.
  • Vous ne pouvez pas ajuster les pourcentages de répartition de l'audience une fois le test lancé.
  • Pour le moment, l'environnement de test n'est pas compatible avec plusieurs appareils. Un utilisateur peut donc voir une variante sur son appareil mobile et la référence correspondante sur son ordinateur.
  • Le nombre de conversions comptabilisées peut différer entre les tests et les autres types de rapports, y compris les métriques affichées dans les tableaux. En effet, les métriques enregistrées lors des tests ne prennent en compte que les impressions diffusées lorsque le test était actif.
  • Les études d'impact créées lors de tests A/B ne peuvent pas faire l'objet d'une nouvelle mesure. Si vous souhaitez mesurer à nouveau votre étude Brand Lift, vous devez arrêter le test, supprimer l'ordre d'insertion de l'étude Brand Lift, puis créer une autre étude Brand Lift dans l'onglet "Études d'impact".

Questions fréquentes

Quelle est la différence entre le ciblage par segmentation de l'audience dans Campaign Manager 360 et les tests dans Display & Video 360 ?

Dans Campaign Manager 360, le ciblage par segmentation de l'audience vise à répartir le trafic entre différentes créations. Par exemple, avec le ciblage par segmentation de l'audience, vous pouvez répartir le trafic d'une campagne Campaign Manager 360 en différents groupes d'utilisateurs et effectuer le trafficking d'une création distincte pour chaque segment.

Dans Display & Video 360, les tests vous permettent de répartir le trafic au niveau de l'ordre d'insertion ou de l'élément de campagne. Vous pouvez ainsi tester n'importe quel paramètre ou dimension pouvant faire l'objet d'un ciblage, et pas simplement les créations. 

Pourquoi ne puis-je pas ajouter un ordre d'insertion ou un élément de campagne spécifique à mon test ?

Les ordres d'insertion ou les éléments de campagne non disponibles pour votre test sont masqués ou ne peuvent pas être sélectionnés lorsque vous configurez le test.

L'icône d'info-bulle vous permet de savoir pourquoi vous ne pouvez pas ajouter un ordre d'insertion ou un élément de campagne à un test.

Quelle est la différence entre Google Optimize et les tests dans Display & Video 360 ?

Dans Display & Video 360, les tests sont conçus pour comparer des stratégies de campagne publicitaire (ciblage, paramètres, etc.), tandis que Google Optimize sert à comparer des sites ou des pages de destination.

Dans Display & Video 360, les tests utilisent un modèle fréquentiste semblable aux autres solutions de mesure des performances des annonces, alors que Google Optimize s'appuie sur un modèle bayésien mieux adapté à la comparaison d'échantillons réduits.

Ces informations vous-ont elles été utiles ?

Comment pouvons-nous l'améliorer ?
Recherche
Effacer la recherche
Fermer le champ de recherche
Menu principal
9211657625410042892
true
Rechercher dans le centre d'aide
true
true
true
true
true
69621
false
false