Este artigo explica como monitorar e entender o desempenho das suas experiências.
Instruções
Conferir a performance do experimento
- Na sua conta do Google Ads, clique no ícone Campanhas
.
- Clique no menu suspenso Campanhas no menu da seção.
- Clique em Experimentos.
- Encontre o experimento procurado e clique nele para conferir a performance.
- Analise a tabela "Resumo do experimento" e a visão geral e escolha Aplicar experimento ou Finalizar experimento.
Informações mostradas na visão geral
- A opção Comparação de desempenho mostra as datas em que o desempenho da sua experiência está sendo comparado com aquele da campanha original. Apenas os dias inteiros que estiverem entre as datas de início e término da experiência e dentro do período selecionado para a tabela abaixo serão exibidos. Se não houver sobreposição, os dias inteiros entre as datas de início e término serão usados nessa opção.
- Por padrão, você vai encontrar dados de performance relacionados às métricas "Cliques", "CTR", "Custo", "Impressões" e "Todas as conversões", mas é possível selecionar as métricas de performance que quiser clicando na seta para baixo ao lado do nome delas. As opções disponíveis são as seguintes:
- Cliques
- CTR
- Custo
- CPC méd.
- Impr.
- Todas as conv. (disponível apenas se você tiver configurado o acompanhamento de conversões)
- Taxa conv. (disponível apenas se você tiver configurado o acompanhamento de conversões)
- Conversões (disponível apenas se você tiver configurado o acompanhamento de conversões)
- Custo / conv. (disponível apenas se você tiver configurado o acompanhamento de conversões)
- Conv. de visualização (disponível apenas se você tiver configurado o acompanhamento de conversões)
- Consultas incrementais (disponíveis para experimentos de correspondência ampla)
- A primeira linha abaixo dos nomes das métricas mostra os dados da sua experiência referentes a elas. Por exemplo, imagine que apareça a informação "4 mil" abaixo de "Cliques". Isso significa que os anúncios do experimento receberam quatro mil cliques desde que ele começou a ser executado.
- A segunda linha mostra uma diferença de performance estimada entre o experimento e a campanha.
- O primeiro valor mostra a diferença de performance observada no experimento nessa métrica em comparação com a campanha original. Por exemplo, digamos que apareça "+10%" em "Cliques". Essa é uma estimativa de que o experimento recebeu um volume de cliques 10% mais alto do que a campanha original. Quando não há dados disponíveis para a campanha original e/ou o experimento, o sinal "‐‐" é exibido.
- O segundo valor mostra que, se você escolher um intervalo de confiança de 95%, esse será o possível intervalo da diferença de performance entre o experimento e a campanha original. Por exemplo, vamos supor que apareça [+8%, +12%]. Isso significa que pode haver um aumento entre 8% e 12% na performance do experimento em comparação com a campanha. Se ainda não houver dados suficientes disponíveis para a campanha original e/ou o experimento, será exibido o sinal "‐‐". Você pode escolher seus próprios intervalos de confiança (80% é o intervalo de confiança padrão) e entender melhor as métricas do seu experimento com os relatórios de confiança dinâmicos.
- Quando o resultado é estatisticamente significativo, aparece também um asterisco azul.
Entender as métricas
Agora você pode usar as informações na tabela de experimentos para entender os resultados do experimento e fazer o que for melhor. A tabela "Experimentos" tem as seguintes colunas:
- Nome: mostra o nome do experimento. Clique para saber mais detalhes sobre ele.
- Tipo: mostra o tipo do experimento que está sendo realizado, por exemplo, melhoria das campanhas Performance Max, de exibição personalizada, de vídeo e muitos outros.
- Status: mostra o estágio atual do experimento, como "Em andamento", "Concluído (aplicado)" e "Programado".
- Resultados: mostra qual grupo da campanha teve a melhor performance durante o experimento.
- Campanha de controle: indica que o grupo de controle teve uma performance melhor do que o grupo de tratamento do experimento.
- Campanha de tratamento: isso significa que o grupo de tratamento teve uma performance melhor do que o grupo de controle do experimento.
- Não há um vencedor claro ou em andamento: significa que o vencedor não pode ser determinado ou ainda não há dados suficientes. Recomendamos que o experimento seja realizado por duas a três semanas para coletar dados. Se mesmo assim não houver resultados definitivos, aumente o orçamento ou deixe o experimento operar por mais tempo até ter dados suficientes para gerar o vencedor.
- Ações: apresenta a ação recomendada para seu experimento, por exemplo, "Aplicar".
- Data de início: mostra a data de início do experimento.
- Data de término: mostra a data de término do experimento.
- Métricas: dependendo das metas, do tipo de experimento e das métricas selecionadas quando o experimento foi criado, é possível conferir várias métricas na tabela, como "Conversões" ou "Valor da conversão". Elas representam a porcentagem de diferencial alcançado pelo grupo de tratamento em relação à campanha de controle. Passe o cursor sobre o texto da coluna para conferir mais informações, como o intervalo de confiança.
- Para selecionar outras métricas, clique no ícone "Coluna"
, selecione as opções e clique em Salvar. É possível remover colunas da mesma maneira.
Dica
Passe o cursor nessa segunda linha para encontrar uma explicação mais detalhada dos dados exibidos. Vão aparecer as seguintes informações:
- Relevância estatística: você saberá se seus dados são estatisticamente relevantes.
- Significância estatística: há pouca probabilidade de que seus dados mudem, e seu experimento tem mais probabilidade de continuar apresentando resultados semelhantes caso seja convertido em campanha.
- Sem significância estatística: confira alguns motivos pelos quais seus dados podem ser considerados não estatisticamente significativos. Na visão geral, é possível usar o menu suspenso ao lado da métrica para mudar a opção exibida.
- O experimento não foi executado por tempo suficiente.
- Sua campanha não recebe tráfego suficiente.
- A divisão do seu tráfego foi muito pequena e sua experiência não está recebendo tráfego suficiente.
- As alterações feitas não resultaram em uma diferença de desempenho estatisticamente relevante.
- Intervalo de confiança: você também vai encontrar mais detalhes sobre o intervalo de confiança da diferença de performance com uma explicação como esta: "Existe 95% de probabilidade de o experimento apresentar uma diferença de +10% a +20 para essa métrica em comparação com a campanha original".
-
Por fim, os dados reais dessa métrica para o experimento e a campanha original são exibidos.
Ações disponíveis na visão geral
- Na visão geral, é possível usar o menu suspenso ao lado da métrica para alterar a opção exibida.
- Para ter uma visão geral do grupo de anúncios do experimento, clique em um grupo de anúncios na tabela abaixo.
- Para consultar detalhes como o nome e o orçamento de uma campanha, passe o cursor sobre a célula correspondente na tabela.
Entender o gráfico de série temporal
O gráfico de série temporal mostra a performance de até duas métricas no experimento e mostra como elas mudaram ao longo do tempo nas campanhas de controle e de tratamento. Com esse gráfico, você pode comparar os efeitos dos seus experimentos em uma métrica específica e saber mais sobre a performance dela ao longo do tempo.
Aplicar ou encerrar um experimento
Para aplicar um experimento a uma campanha ou encerrá-lo por qualquer motivo, clique no botão "Aplicar" ou "Finalizar" no canto inferior direito do card "Resumo do experimento", acima do gráfico de série temporal.
Como aplicar resultados favoráveis de forma automática (disponível apenas para alguns tipos de experimentos)
Esse recurso é ativado por padrão. Quando os resultados são favoráveis em comparação com a campanha de base, esses resultados são aplicados automaticamente à campanha de teste, e todo o tráfego é direcionado para ela. Com esse recurso, é possível aproveitar as melhorias de performance resultantes dos seus experimentos com pouco esforço.
Observação: é possível desativar o recurso de aplicação automática a qualquer momento durante o experimento na página "Relatório".
É possível criar um experimento usando cards de recomendação na página "Experimentos". Durante a criação, você pode ativar esse recurso. Depois que um experimento é criado, uma dica aparece no card de resumo com o status do recurso. Também é possível ativar ou desativar esse recurso na dica (e o status dela vai refletir sua escolha).
Além disso, na coluna "Status" da página "Experimentos", um dos seguintes estados pode aparecer para mostrar quais experimentos foram aplicados:
- Concluído (não aplicado)
- Concluído (aplicando…)
- Concluído (aplicado ou convertido)
Quando o experimento for concluído, o status da dica será atualizado para que você saiba se as mudanças foram aplicadas ou não.
Outras informações específicas para alguns tipos de experimento
Experimentos de correspondência ampla
Consultas incrementais
Os experimentos de correspondência ampla (criados na página "Criar novo experimento" ou nos cards de Recomendação) agora oferecem insights mais detalhados com consultas incrementais.
As consultas incrementais são termos de pesquisa que correspondem a uma palavra-chave de correspondência ampla no seu experimento, mas não foram associados à conta do Google Ads durante o período do experimento. Essas consultas têm pelo menos uma conversão atribuída ao clique.
As consultas incrementais podem ajudar a informar você sobre o novo tráfego líquido associado e convertido por palavras-chave de correspondência ampla na campanha que não foram associadas e convertidas de nenhuma outra palavra-chave na sua conta durante o experimento.
Você pode conferir até cinco das principais consultas incrementais, se disponíveis, na página inicial "Experimentos" e na página "Relatório".
Experimentos de Performance Max
O que acontece quando você pausa ou remove campanhas de experimento Performance Max
É possível pausar ou encerrar a campanha de controle ou tratamento a qualquer momento. Para reiniciar um experimento pausado, basta usar o botão "Retomar" para reiniciar as campanhas ou reativá-las manualmente.
- Como pausar as campanhas:
- Se você pausar a campanha de controle ou de tratamento, o experimento será pausado, e 100% do tráfego será direcionado para a campanha restante que estiver ativa.
- Se você pausar as campanhas de controle e de tratamento, o experimento será pausado.
- Status do experimento na data de término:
- Se o experimento chegar à data de término, o sincronizador da Performance Max vai mudar o status do experimento para "Encerrado" ou "Lançado", independentemente da aplicação automática. No entanto, se o resultado do experimento for bom e a aplicação automática estiver ativada, o pipeline de aplicação automática vai graduar de maneira automática os experimentos "encerrados" posteriormente.
- Se o experimento chegar à data de término e a aplicação automática estiver desativada, você vai precisar aplicar as alterações manualmente.
- Como remover campanhas:
- Se você remover a campanha de controle ou de tratamento, 100% do tráfego vai ser direcionado para a campanha restante que estiver ativa.
- Se você remover apenas a campanha de controle, o experimento será lançado.
- Se você remover apenas a campanha de tratamento, o experimento será encerrado.
- Se você remover as campanhas de controle e de tratamento, o experimento será encerrado.
- Se você remover a campanha de controle ou de tratamento, 100% do tráfego vai ser direcionado para a campanha restante que estiver ativa.
Status da campanha | Tráfego após a ação do usuário | Status do experimento antes da data de término | Status do experimento na data de término | |||||
Ação do usuário | Controle | Tratamento | Controle | Tratamento | ||||
Pausar uma das campanhas | Pausada | Ativa | 0% | 100% | Pausado | Se a aplicação automática estiver ativada e o grupo de tratamento tiver resultados favoráveis, o experimento será lançado. Caso contrário, o experimento será encerrado. | ||
Ativa | Pausada | 100% | 0% | Pausado | ||||
Pausar as duas campanhas | Pausada | Pausada | 0% | 0% | Pausado | |||
Remover uma das campanhas | Removido | Ativa | 0% | 100% | Lançado | |||
Ativa | Removido | 100% | 0% | Finalizado | ||||
Remover as duas campanhas | Removido | Removido | 0% | 0% | Finalizado |
Revisar ou editar uma campanha parecida com uma PMax atual
Durante o experimento, você vai precisar editar manualmente as campanhas parecidas. Caso contrário, o Google vai escolhê-las por você. Após o término do experimento, não será possível adicionar ou remover campanhas parecidas.
- Ver resultados com campanhas parecidas: para comparar a performance do seu experimento a campanhas semelhantes, ative a opção "Ver resultados com campanhas parecidas" nos relatórios do Google Ads.
- Editar campanhas parecidas (até o término do experimento): você tem controle total sobre quais campanhas são consideradas "parecidas" durante todo o experimento. Basta editar suas escolhas nos experimentos da campanha Performance Max. Se você não escolher campanhas parecidas manualmente, o Google vai selecioná-las de forma automática. Quando o experimento terminar, não será possível adicionar nem remover campanhas parecidas dos resultados.