Monitorizar el rendimiento de experimentos de vídeo

Después de configurar un experimento de vídeo, puedes monitorizar su rendimiento en Google Ads y ver cuáles son los anuncios de vídeo que dan mejor resultado en las variantes experimentales. Esta información te permite determinar la campaña que vas a seguir usando y dónde vas a asignar más presupuesto.

En este artículo se explica cómo monitorizar e interpretar el rendimiento de los experimentos de vídeo.


Instrucciones

  1. En tu cuenta de Google Ads, haz clic en el icono de campañas Icono Campañas.
  2. En el menú de secciones, haz clic en el desplegable Campañas.
  3. Haz clic en Experimentos y, a continuación, en Experimentos de vídeo.
  4. Selecciona un experimento para ver sus resultados mientras está en curso (resultados orientativos) o cuando se ha completado (resultados concluyentes).

Resultados orientativos frente a resultados concluyentes

Puedes ver el supuesto ganador de las variantes experimentales mientras el experimento de vídeo aún se está ejecutando y está recogiendo datos, lo que te permite obtener resultados orientativos antes. Te recomendamos esperar hasta que finalice el experimento para obtener resultados concluyentes, pero si no tienes tiempo y te basta con resultados orientativos, puedes tenerlos tan pronto como el experimento alcance el umbral del 70 % de confianza. También puedes esperar hasta que el experimento alcance el 80 % de confianza (se siguen considerando resultados orientativos) o esperar a que se complete al 95 % (los resultados de esta fase se consideran concluyentes).

Un umbral del 70 % de confianza o lo que se conoce como "intervalo de confianza" significa que, si repitieras este experimento, obtendrías el mismo resultado el 70 % de las veces. Si prefieres resultados que sean concluyentes, tendrás que esperar a que el intervalo de confianza llegue al 95 %.


Interpretar los resultados

  • Al evaluar los resultados, céntrate en los indicadores verdes y rojos de la métrica de éxito, así como en otras métricas de la tabla de informes, ya que estas métricas te ayudarán a encontrar las diferencias significativas de rendimiento entre las variantes experimentales.
  • Para empezar a calcular las diferencias entre las variantes experimentales y la variante de control de cada métrica de conversión (excepto en el caso del Brand Lift absoluto), se necesitan al menos 100 conversiones. Para el resto de métricas relacionadas con los clics o las visualizaciones, no es necesario un número mínimo de acciones.
Métrica Umbral de acciones Qué significa esto
Porcentaje de clics (CTR) Sin requisitos Variante con el porcentaje de clics más alto
Tasa de conversión ≥100 conversiones Variante con la tasa de conversión más alta
Conversiones ≥100 conversiones Variante con el mayor número de conversiones
Coste por clic (CPC) Sin requisitos Variante con el coste por clic más bajo
Coste por cada mil impresiones (CPM) Sin requisitos Variante con el coste por cada mil impresiones más bajo
Coste por visualización (CPV) Sin requisitos Variante con el coste por visualización más bajo
Porcentaje de visualización del vídeo Sin requisitos Variante con la tasa de visualización más alta

Para todas las métricas

  • Tan pronto como la diferencia con la variante de control sea estadísticamente significativa en el nivel de confianza seleccionado (70 %, 80 % o 95 %), empezarás a obtener resultados. Si tienes:
    • "Rendimiento similar": con este nivel de confianza, no hay pruebas estadísticas de que la variante tenga mejor o peor rendimiento que la variante de control en esta métrica.
    • Un valor verde: con este nivel de confianza, hay pruebas estadísticas de que la variante tiene mejor rendimiento que la variante de control en esta métrica.
    • Un valor de color rojo: con este nivel de confianza, hay pruebas estadísticas de que la variante tiene un rendimiento peor que la variante de control en esta métrica.
  • En el caso de las métricas de conversión: si has seleccionado una métrica de conversión y una campaña del experimento no ha recibido al menos 100 conversiones, aparecerá el mensaje "Recogiendo datos" (si el experimento aún se está ejecutando) o "No hay datos suficientes" (si el experimento ha finalizado).
  • Nota: Si el presupuesto se distribuye de manera uniforme entre las variantes experimentales, pero una campaña recibe más impresiones que otra, significa que las campañas participan en subastas diferentes y ganan con pujas distintas. La campaña que gane más subastas al menor coste obtendrá más impresiones. Los experimentos solo evitan que los usuarios de una variante experimental se solapen con los de otra.

Prácticas recomendadas

  • Toma medidas basándote en los resultados: si detectas resultados con significación estadística en una de las variantes experimentales, puedes maximizar la eficacia pausando las otras variantes y asignando todo el presupuesto a la variante con mejor rendimiento y con los resultados más significativos.
  • Aplica lo que has aprendido: por ejemplo, si descubres que utilizando recursos de vídeo personalizados en distintos segmentos de audiencia consigues un rendimiento mayor que mostrando el mismo recurso genérico a todas las audiencias, básate en esta información a la hora de desarrollar nuevos recursos de vídeo.
  • Los resultados no concluyentes también pueden ser útiles: por ejemplo, puedes tener dos creatividades que ofrezcan el mismo rendimiento en el experimento, pero que el coste de producción de una sea menor que el de la otra.

¿Te ha resultado útil esta información?

¿Cómo podemos mejorar esta página?
true
Achieve your advertising goals today!

Attend our Performance Max Masterclass, a livestream workshop session bringing together industry and Google ads PMax experts.

Register now

Búsqueda
Borrar búsqueda
Cerrar búsqueda
Menú principal
8566860885102463093
true
Buscar en el Centro de ayuda
true
true
true
true
true
73067
false
false
false