Como a automação é usada na moderação de conteúdo

O Google oferece versões traduzidas da Central de Ajuda, mas elas não têm a intenção de alterar o conteúdo das nossas políticas. A versão em inglês é o idioma oficial que usamos para aplicar essas políticas. Se quiser ver este artigo em outra língua, confira o menu suspenso de idiomas na parte de baixo da página.

Os anúncios são revisados para garantir que obedeçam às políticas do Google Ads e, assim, permaneçam seguros e adequados a todas as pessoas. A maioria deles é revisada em até um dia útil.

Usamos uma combinação de IA do Google e avaliação humana para detectar e remover anúncios que violam nossas políticas e são prejudiciais para os usuários e o ecossistema geral do Google Ads. Nossas tecnologias de aplicação obrigatória podem usar a IA do Google, inspirada nas decisões de revisores humanos, para ajudar a proteger nossos usuários e manter nossas plataformas de publicidade seguras. O conteúdo em violação é removido pela IA do Google. No entanto, quando uma análise mais cuidadosa é necessária, ele passa pela avaliação de operadores e analistas treinados. Por exemplo, nos casos em que é preciso entender o contexto de um anúncio. Os resultados dessas análises manuais são usados na criação de dados de treinamento para a melhoria dos nossos modelos de aprendizado de máquina.

Ao revisar conteúdos ou contas para determinar se violam nossas políticas, levamos diversas informações em consideração para tomar uma decisão, incluindo o conteúdo do criativo (por exemplo, texto do anúncio, palavras-chave, imagens e vídeos), bem como o destino do anúncio associado. Também consideramos as informações da conta (por exemplo, histórico de violações da política) e outras informações fornecidas por meio de mecanismos de denúncia (quando aplicável), além da nossa própria investigação.

Isso foi útil?

Como podemos melhorá-lo?
Pesquisa
Limpar pesquisa
Fechar pesquisa
Menu principal
18015454073585986444
true
Pesquisar na Central de Ajuda
true
true
true
true
true
73067
false
false