Cree experimentos para probar anuncios

Utilice el sistema de pruebas A/B de Display & Video 360 para evaluar todas las dimensiones de sus campañas

Ahora dispone de una herramienta que le permite saber qué aspectos de su estrategia publicitaria funcionan y cuáles no: los experimentos. Se trata de un sistema de pruebas integrado que le ayuda a averiguar qué táctica es más eficaz para su negocio. Los experimentos dividen sus cookies en grupos mutuamente excluyentes para que pueda probar distintas combinaciones de segmentación, de configuración y de creatividades. Así sabrá cuál de ellas ofrece mejores resultados y podrá utilizar esta información para mejorar el rendimiento de sus campañas mientras todavía están activas o para modificar la planificación de futuras campañas.

Los experimentos A/B permiten hacer lo siguiente:

  • Probar todas las dimensiones de una variable que afectan al rendimiento de una campaña: segmentación, configuración, creatividades, etc. 
  • Generar informes sobre métricas clave: CPC, CTR, CPA, CVR, CPM, etc.

Conceptos

  • Base de referencia (control): línea de pedido o pedido de inserción que sirve de referencia para la comparación. Es el valor estándar a partir del cual se realizan variaciones para crear las distintas variantes de una prueba.

  • Variante: línea de pedido o pedido de inserción experimentales con una sola variable de prueba, que se crea a partir de la línea de pedido o el pedido de inserción de referencia.

  • Grupo: en un experimento, las variantes y la base de referencia se consideran grupos distintos. Un grupo puede tener una o varias líneas de pedido o bien uno o varios pedidos de inserción.  

  • Métricas (reales): los resultados sin procesar que se miden en los experimentos se denominan "cantidades reales". En la tabla de resultados de los experimentos, las cantidades reales se muestran entre paréntesis debajo de las métricas normalizadas.

    Las métricas normalizadas (las cifras de la parte superior de las celdas correspondientes a los clics, las conversiones, las impresiones o los ingresos) se calculan extrapolando las cantidades reales a las cantidades que se obtendrían si las bases de referencia o las variantes recibieran el 100 % de la división de la audiencia. Por ejemplo, una línea de pedido con una división de la audiencia del 34 % que obtiene 170.000 conversiones reales, obtendría 500.000 conversiones normalizadas con una división de la audiencia del 100 %.

  • Intervalo de confianza: es una forma de indicar la exactitud de los resultados respecto a un intervalo de valores posibles. El intervalo de valores se define de forma que hay una probabilidad especificada (0,90 o 0,95) de que el valor real se encuentre dentro de él. Los límites (o puntos máximos y mínimos) del intervalo de confianza se muestran entre corchetes dentro de las columnas "Porcentaje de diferencia".

  • Valor P: cuanto más bajo es el valor P, más posibilidades hay de que exista una diferencia real de rendimiento entre la base de referencia y la variante. Solo se muestra el valor P del objetivo seleccionado.

Configurar un experimento

  1. Vaya hasta su anunciante y, en el menú de la izquierda, muestre las opciones de Recursos y haga clic en Experimentos e incremento.
  2. En la página Experimentos e incremento, haga clic en Crear > Experimento.
  3. En la página que se abre, introduzca los siguientes datos del experimento:
    1. Un nombre para el experimento.

    2. Qué quiere medir en el experimento. Debe expresarlo con el objetivo y el intervalo de confianza.

      1. Objetivos del experimento:
        • Conversiones
        • Clics
        • Visualizaciones completadas
      2. Intervalo de confianza:
        • 95 % (el más habitual)
        • 90 %
    3. Qué incluye en el experimento.

      1. Tipo de experimento:
        • Comparar pedidos de inserción
        • Comparar líneas de pedido
      2. Elementos que se van a comparar
        • En función del tipo de experimento seleccionado, incluya al menos dos pedidos de inserción o líneas de pedido en el experimento. Uno de los elementos que seleccione debe ser su base de referencia (o control).

        • (Opcional) Una vez que haya añadido varios elementos, puede ajustar la división de la audiencia para controlar la distribución de todas las cookies entre los pedidos de inserción o las líneas de pedido del experimento.

      3. Usuarios no identificados

        • Active la opción Incluir a los usuarios de los que no tenemos cookies u otra información de identificación. A menos que se quiera registrar tráfico no identificado, es mejor dejar desactivada esta opción de manera predeterminada. Las muestras de grupos aleatorias pueden reflejar la población estudiada sin este tráfico. Además, este tráfico puede introducir más ruido o contaminación en sus grupos A/B.

    4. Cuándo se ejecutará el experimento.

      1. Fecha de inicio
      2. Fecha de finalización

        Si es posible, las fechas de inicio y de finalización del experimento deben coincidir con las de los pedidos de inserción o las líneas de pedido que se incluyen en él. Si un pedido de inserción o una línea de pedido está activo antes o después del experimento, se mostrará al 100 % de los usuarios, es decir, no seguirá la división de audiencia del experimento. Igualmente, si detiene un experimento antes de que los pedidos de inserción o las líneas de pedido lleguen a la fecha de finalización, también se mostrarán al 100 % de los usuarios.

        Si lo desea, puede dejar vacío el campo de fecha de finalización y ejecutar el experimento indefinidamente.

  4. Una vez que haya introducido todos los datos del experimento, haga clic en Guardar.

Evaluar los resultados de un experimento

  1. Vaya hasta su anunciante y, en el menú de la izquierda, muestre las opciones de Recursos y haga clic en Experimentos e incremento.
  2. Busque el experimento que quiera y haga clic en su nombre para ver los resultados.
    En la columna Es significativo se indicará si el experimento ha detectado una diferencia estadísticamente significativa entre la base de referencia y alguna de las variantes del objetivo del experimento.
  3. En la página que se abre, consulte la columna Porcentaje de diferencia para ver las diferencias entre la base de referencia y cada una de las variantes en relación con distintas métricas (p. ej., la tasa de conversión, el porcentaje de clics o el eCPM).

    Normalmente, las flechas verdes indican que hay mucha diferencia entre la variante y la base de referencia, mientras que las flechas rojas indican que la diferencia es escasa. Los valores indicados entre corchetes son los puntos máximos y mínimos del intervalo de confianza.

Prácticas recomendadas

Cuando vaya a crear un experimento, tenga en cuenta los siguientes aspectos.

Planificación y configuración:
  • Solo puede probar una variable por experimento. Modifique únicamente la variable que quiera probar; el resto de grupos del experimento (base de referencia y variantes) deben permanecer intactos.

  • Copie los pedidos de inserción o las líneas de pedido que quiera incluir en los experimentos; no los vuelva a crear. De este modo, todos los elementos de los experimentos serán idénticos, excepto la dimensión que quiera probar como variable.

  • Utilice solo pedidos de inserción o líneas de pedido nuevos en los experimentos. Si un pedido de inserción o una línea de pedido tienen actividad generada con anterioridad al experimento, el recuento de conversiones puede verse afectado.

  • Elimine las influencias externas. Las líneas de pedido que no incluye en un experimento no deben competir con los presupuestos de las líneas de pedido de dicho experimento. Para ello, si es posible, utilice un pedido de inserción distinto para las líneas de pedido que se utilizarán en el experimento.

    Igualmente, debe procurar no volver a utilizar la creatividad que incluye en el experimento fuera de este.

  • Indique un límite de frecuencia suficientemente alto. Si incluye pedidos de inserción en un experimento, procure que el límite de frecuencia de la campaña sea igual o superior a la suma del límite de frecuencia más alto de los pedidos de inserción del experimento y todos los límites de frecuencia de los pedidos de inserción restantes que no se utilizan en el experimento.

    Por ejemplo, si tiene una campaña con tres pedidos de inserción, pero solo se incluyen dos de ellos en el experimento, para calcular el límite de frecuencia mínimo de la campaña debe sumar el límite de frecuencia más alto de los dos pedidos de inserción del experimento y el límite de frecuencia del pedido de inserción que no incluye en el experimento. Es decir, si los límites de frecuencia de los dos pedidos de inserción del experimento son 10 y 8 respectivamente, y el límite de frecuencia del tercer pedido de inserción (que no se incluye en el experimento) es 5, el límite de frecuencia de la campaña debería ser 15. Este resultado se obtiene sumando 10 (que es el límite de frecuencia más alto de los pedidos de inserción asociados al experimento) y 5 (que es la suma de todos los límites de frecuencia de los pedidos de inserción restantes de la campaña que no se incluyen en el experimento).

    Esta práctica recomendada también sirve para calcular el límite de frecuencia a nivel de pedido de inserción si el experimento compara líneas de pedido.

  • Planifique cuidadosamente el presupuesto y el ritmo. El presupuesto que asigne a cada grupo de un experimento debe ser proporcional a la división de la audiencia de dicho experimento. De lo contrario, el presupuesto formará parte de las variables del experimento. Lo mismo ocurre con el ritmo. Esta práctica recomendada debe aplicarse a las líneas de pedido del experimento y también a las que no se incluyen en él pero que forman parte del mismo pedido de inserción. La capacidad de gastar el presupuesto que tengan estas líneas de pedido no incluidas en el experimento y el ritmo con que lo hagan afectarán a la forma en que las líneas de pedido del experimento compren inventario y, por consiguiente, influirán en los resultados.

  • Tenga cuidado si la cobertura de sus campañas es limitada. Si prevé que la cobertura de sus campañas será relativamente limitada (p. ej., compra inventario de acuerdos o inventario de audiencia con una cobertura limitada), es posible que los experimentos generen intervalos de confianza amplios que pueden dificultar la evaluación de la eficacia de las variantes.

  • Téngalo todo a punto con suficiente antelación. Los experimentos deben estar completamente configurados al menos 24 horas antes de ejecutarse. De este modo habrá tiempo suficiente para que se aprueben todas las creatividades.

    Asimismo, todos los presupuestos de los pedidos de inserción y las líneas de pedido de un experimento deben estar listos al menos 24 horas antes de que se inicie el experimento.

  • Compruebe que todos los elementos estén activos. Todos los pedidos de inserción y todas las líneas de pedido de un experimento deben estar activos (es decir, no deben estar en pausa) al menos 24 horas antes de que se inicie el experimento para evitar que se produzcan sesgos debido a cambios de estado. Utilice segmentos de presupuesto para evitar que los pedidos de inserción o las líneas de pedido se publiquen antes de que se inicie el experimento.

Durante la ejecución de un experimento
  • No pause el experimento. Si debe pausar una campaña temporalmente, pero tiene previsto continuar con el experimento, pause todos los grupos del experimento, pero no el experimento. Cuando reactive la campaña, active también todos los grupos a la vez.

    Los experimentos que se finalicen no podrán reiniciarse. Además, todas las entidades que se les hayan asignado volverán a mostrarse al 100 % de los usuarios.
  • Procure que los cambios sean uniformes. Si debe hacer un cambio en los pedidos de inserción o las líneas de pedido de un experimento mientras se está ejecutando (p. ej., quitar un sitio web por motivos de idoneidad de marca), aplique el mismo cambio a todos los grupos del experimento.

Limitaciones

  • No es posible ejecutar experimentos con los siguientes tipos de inventario:
    • Líneas de pedido predeterminadas de programática garantizada o pedidos de inserción con líneas de pedido predeterminadas
    • Líneas de pedido de TrueView
  • Experiments can go live 24 hours after setup. Today or tomorrow can't be selected as an experiment start date during setup.
  • Las líneas de pedido o los pedidos de inserción solo pueden usarse en un experimento activo en un momento determinado.
  • No es posible ajustar los porcentajes de división de audiencia una vez iniciado un experimento.
  • El sistema de experimentos no distingue distintos dispositivos, por lo que es posible que un usuario vea una variante de un experimento en su dispositivo móvil y la base de referencia correspondiente en el ordenador.

Preguntas frecuentes

¿Cuál es la diferencia entre la segmentación de la audiencia de Campaign Manager y los experimentos de Display & Video 360?

La segmentación de la audiencia de Campaign Manager consiste en dividir el tráfico entre distintas creatividades, mientras que los experimentos de Display & Video 360 le permiten dividir el tráfico entre diferentes pedidos de inserción y líneas de pedido para que pueda probar otros elementos a parte de las creatividades. La segmentación de la audiencia de Campaign Manager divide el tráfico de las campañas de esta plataforma en distintos grupos de usuarios (o segmentos) y permite realizar el traficado de una creatividad diferente para cada segmento. Por otro lado, los experimentos de Display & Video 360 dividen las audiencias a nivel de pedido de inserción o línea de pedido, lo que permite probar cualquier dimensión que se pueda segmentar o cualquier configuración.

¿Por qué no puedo añadir un pedido de inserción o una línea de pedido concretos a mi experimento?

Los pedidos de inserción o las líneas de pedido que no puedan añadirse a su experimento se ocultarán, o bien se mostrarán pero no podrán seleccionarse mientras configure el experimento. Si ve pedidos de inserción o líneas de pedido que no pueden seleccionarse, coloque el cursor sobre el interrogante que aparece junto a su nombre para conocer el motivo por el cual no pueden añadirse al experimento.

¿Cuál es la diferencia entre Google Optimize y los experimentos de Display & Video 360?

Los experimentos de Display & Video 360 están diseñados para comparar tácticas de campañas publicitarias (como la segmentación o la configuración), mientras que Google Optimize está pensado para comparar diferentes sitios web o páginas de destino. Además, los experimentos de Display & Video 360 utilizan un modelo frecuentista (parecido al que usan la mayoría de soluciones de medición de la eficacia publicitaria), mientras que Google Optimize emplea un modelo bayesiano (más adecuado para gestionar muestras pequeñas).

¿Te ha resultado útil esta información?
¿Cómo podemos mejorar esta página?