Com os experimentos, é possível propor e testar mudanças nas suas campanhas Geração de demanda. Você pode medir os resultados e entender o impacto das alterações antes de aplicá-las a uma campanha.
Neste artigo, explicamos como os experimentos de geração de demanda funcionam. Quando estiver tudo pronto, configure uma campanha Geração de demanda.
- Antes de começar
- Recursos exclusivos para experimentos A/B de geração de demanda
- Criar um experimento
- Avaliar os resultados do experimento
- Finalizar o experimento
- Práticas recomendadas
Antes de começar
- Você pode iniciar um experimento com pelo menos duas campanhas Geração de demanda. As duas campanhas devem estar prontas, mas não estar em veiculação no momento.
- Escolha campanhas com apenas uma variável diferente para ajudar você a entender melhor e tirar conclusões dos resultados do experimento.
- Todas as mudanças na configuração da campanha precisam ser feitas antes de salvar o experimento.
Recursos exclusivos para experimentos A/B de Geração de demanda
- Os experimentos de Geração de demanda serão executados em todos os inventários: Discover, Gmail e YouTube.
- Com os experimentos de geração de demanda, os anunciantes podem testar todas as variações de imagens e campanhas de vídeo.
- Os experimentos permitem testar com criativos, público-alvo e feed de produtos. Não recomendamos testar outras variáveis, como lances e orçamento, no momento.
- Recomendamos que os anunciantes criem campanhas com a mesma data de início para realizar a experiência. Os experimentos só podem usar campanhas Geração de demanda.
Instruções
Criar um experimento
- Na sua conta do Google Ads, clique no ícone Campanhas .
- Clique no menu suspenso Campanhas no menu da seção.
- Clique em Experimentos.
- Clique no botão de adição na parte de cima da tabela "Todos os experimentos".
- Você também pode acessar a guia "Experimentos de geração de demanda" e clicar no botão de adição .
- Selecione Experimento de geração de demanda e clique em Continuar.
- (Opcional) Insira o nome e a descrição do experimento. O experimento não pode ter o mesmo nome que suas campanhas ou outros experimentos.
- Por padrão, há 2 grupos experimentais, mas é possível adicionar até 10, se necessário.
- Rotule os grupos experimentais.
- Em "Divisão de tráfego", insira a porcentagem a ser usada para dividir o experimento. Recomendamos usar 50% para ter a melhor comparação entre as campanhas original e experimental.
- Atribua campanhas a cada grupo experimental. Uma campanha não pode estar em mais de um grupo experimental ao mesmo tempo, mas um grupo experimental pode ter várias campanhas, se necessário.
- Selecione a métrica de sucesso principal para medir o resultado do experimento.
- As métricas incluem: taxa de cliques (CTR), taxa de conversão, custo por conversão e custo por clique (CPC).
- Clique em Salvar para finalizar a criação do experimento. Seu experimento está pronto para ser veiculado.
Avaliar os resultados do experimento
Durante o experimento, é possível avaliar e comparar a performance dele com a da campanha original. Se você quiser, poderá encerrar o experimento mais cedo. O relatório do experimento apresenta três componentes:
- Menu suspenso do nível de confiança: selecione o nível de confiança com que você quer ver os resultados. Isso afeta o card superior e a tabela de relatórios. Um número menor permite resultados mais rápidos, enquanto o oposto é mais lento, mas gera resultados mais precisos:
- 70% (padrão): resultados direcionais, alinha-se ao nível de confiança mais baixo da medição de Lift.
- 80%: resultados direcionais, um equilíbrio entre velocidade e certeza.
- 95%: resultados conclusivos, para usuários que buscam alta certeza para grandes decisões.
- Card superior: confira os resultados do experimento para a métrica de sucesso escolhida. O status do card apresenta informações úteis, como:
- Coletando dados: o experimento precisa de mais dados para começar a calcular os resultados. Para métricas relacionadas a conversões, você precisa coletar pelo menos 100 pontos de dados para começar a ver resultados.
- Performance semelhante: não há diferença significativa entre os diferentes grupos com o nível de confiança escolhido. Aguarde mais tempo para ver se a diferença se torna significativa com mais pontos de dados.
- Um grupo é melhor: há uma diferença significativa entre os diferentes grupos com o nível de confiança escolhido.
- Tabela de relatórios: encontre resultados mais abrangentes para sua métrica de sucesso e todas as outras métricas disponíveis. As colunas contêm informações sobre o grupo de controle, o grupo experimental, o status de performance do grupo e as métricas gerais de performance.
Finalizar o experimento
Encerre o experimento depois que os resultados chegarem, antes de realizar ações relacionadas à campanha original. Para finalizar, acesse a página "Experimentos", passe o cursor sobre ele e clique em Finalizar experimento.
Práticas recomendadas
- Ao usar estratégias de lances com base em conversões, os experimentos de Geração de demanda exigem pelo menos 50 conversões por grupo para gerar resultados. Para conseguir isso, é recomendável usar os lances de CPA desejado ou Max. conversões, otimizando para conversões superficiais, como "Adicionar ao carrinho" ou "Visualização de página".
- Crie experimentos com campanhas em que apenas uma variável é diferente.
- Por exemplo, faça um experimento com criativos diferentes, mas com o mesmo formato e que segmentam o mesmo público-alvo. Assim, a variável do criativo é diferente, mas as variáveis de formato e público-alvo permanecem as mesmas.
- Aja com base nos resultados: se houver resultados com significância estatística em um grupo experimental, você poderá maximizar o impacto pausando outros grupos e transferindo todo o orçamento para aquele com os resultados mais significativos.
- Crie conteúdo com base no que você aprendeu: por exemplo, se você descobrir que recursos de vídeo personalizados para segmentos de público-alvo diferentes têm desempenho melhor do que o mesmo recurso genérico para todos os públicos-alvo, use esses dados para desenvolver os próximos recursos de vídeo.
- Resultados inconclusivos também podem ser úteis: um experimento que não tem um vencedor pode significar que a variação do criativo que você está testando não é significativa. Você pode testar outros tipos de recurso ou uma variação mais significativa no próximo experimento.