Perguntas frequentes sobre os esforços do Google para combater material de abuso sexual infantil on-line

O que é CSAM?

A sigla CSAM, em inglês, significa material de abuso sexual infantil. Esse material consiste em qualquer representação visual, incluindo, mas não se limitando a, fotos, vídeos e imagens geradas por computador que contenham um menor envolvido em conduta sexualmente explícita. Nossa interpretação do material de abuso sexual infantil segue a definição federal dos EUA de "pornografia infantil". Reconhecemos que esse tipo de material não é o mesmo que nudez infantil. Nossos sistemas e políticas são feitos especificamente para reconhecer e distinguir imagens sem problemas, como uma criança brincando em uma banheira ou um quintal (o que não é de natureza sexual nem CSAM), de imagens que envolvem abuso sexual de crianças ou exibição lasciva que viola a legislação.

Qual é a abordagem do Google para combater esse material?

O Google tem o compromisso de combater o material de abuso sexual infantil on-line e evitar que ele seja disseminado nas nossas plataformas. Dedicamos recursos significativos, como tecnologia, pessoas e tempo, à detecção, dissuasão, remoção e denúncia de conteúdo e comportamento de exploração sexual infantil. Para saber mais sobre nossos esforços para proteger crianças e famílias, consulte a Central de segurança do Google e as diretrizes da comunidade do YouTube, o site de proteção às crianças e nossa postagem do blog sobre como detectamos, removemos e denunciamos material de abuso sexual infantil (páginas em inglês).

Como o Google identifica material de abuso sexual infantil na própria plataforma?

Investimos muito no combate contra a exploração sexual infantil on-line e usamos tecnologia para impedir, detectar e remover esse tipo de material das nossas plataformas. Isso inclui detecção automatizada e revisão humana, além do uso de relatórios enviados pelos nossos usuários e terceiros, como ONGs, para detectar, remover e denunciar o material nas nossas plataformas. Implementamos a correspondência de hashes, incluindo a CSAI Match do YouTube, para detectar material de abuso sexual infantil conhecido. Também implantamos classificadores de aprendizado de máquina para encontrar material que nunca foi visto antes, que depois é confirmado pelas nossas equipes de revisão especializadas. A detecção de CSAM nunca visto antes ajuda o ecossistema de segurança infantil de diversas maneiras, inclusive a identificar as vítimas que precisam de proteção e contribuir com o conjunto de hashes para aumentar nossas habilidades de detectar material conhecido. Com nossos classificadores, o Google criou a API Content Safety, que disponibilizamos a outras pessoas para ajudar a priorizar o conteúdo abusivo para revisão humana.


A CSAI Match e a API Content Safety estão disponíveis para entidades qualificadas que querem combater o abuso nas próprias plataformas. Clique aqui para saber mais.

O que o Google faz ao detectar material de abuso sexual infantil na própria plataforma?

Quando detectamos esse material nas nossas plataformas, nós o removemos, fazemos uma denúncia "CyberTipline" para o NCMEC e podemos encerrar a conta do usuário responsável. O NCMEC serve como uma central ampla e abrangente de denúncias nos Estados Unidos para questões relacionadas à exploração infantil. Quando uma denúncia é recebida pelo NCMEC, ele pode a encaminhar aos órgãos responsáveis pelo cumprimento da lei no mundo todo.

O que é uma denúncia "CyberTipline" e que tipo de informações ela inclui?

Quando o Google encontra material de abuso sexual infantil, fazemos uma denúncia ao NCMEC. Essas denúncias são geralmente chamadas de relatórios "CyberTipLine" ou "CyberTips". Além disso, tentamos identificar casos envolvendo abuso físico de menor, produção de material de abuso sexual infantil e tráfego infantil. Nesses casos, enviamos um relatório "CyberTip" complementar ao NCMEC para ajudar a priorizar o caso. Uma denúncia enviada ao NCMEC pode incluir informações de identificação do usuário, da vítima menor de idade e/ou outros fatos contextuais úteis.

Confira abaixo alguns exemplos de impacto real que as denúncias do tipo "CyberTip" enviadas pelo Google tiveram no mundo. Eles oferecem apenas uma noção da grande variedade de denúncias que fazemos, mas não abrangem a totalidade delas.  

  • Uma denúncia "CyberTip" do Google relatou vários materiais de abuso sexual infantil envolvendo crianças da escola primária em um contexto de sala de aula. Alguns dos materiais denunciados não foram identificados anteriormente pelo Google e pareciam ser produzidos pelo proprietário da Conta do Google. O NCMEC encaminhou a denúncia às autoridades legais, levando à identificação e à proteção das duas crianças retratadas nas imagens de CSAM denunciadas.  
  • Uma denúncia "CyberTip" do Google relatou a solicitação e produção de CSAM pelo proprietário de uma Conta do Google, que pediu a criação de vários vídeos retratando a participação ativa no abuso de dezenas de meninos menores de idade em troca de dinheiro. O NCMEC encaminhou a denúncia às autoridades legais. O proprietário da conta foi condenado pela produção de material de abuso sexual infantil, e dezenas de crianças foram identificadas e protegidas do abuso contínuo.
  • Uma denúncia "CyberTip" do Google informou um único material de abuso sexual infantil conhecido, levando à apreensão do proprietário da conta, que, de acordo com as autoridades legais, tinha vários outros materiais desse tipo e estava diretamente envolvido no abuso de menores sob os cuidados dele, além de permitir que eles fossem abusados por outras pessoas. Devido aos esforços do Google, do NCMEC e das autoridades legais, três crianças foram resgatadas do abuso sexual.
  • Uma denúncia "CyberTip" do Google informou um material de abuso sexual infantil que foi criado pelo proprietário da Conta do Google e solicitado a menores a que o proprietário tinha acesso on-line. O proprietário da conta foi apreendido, e as autoridades legais determinaram que estava em uma posição de confiança como profissional médico: ele usava isso para abusar dos pacientes sob seus cuidados e tinha acesso direto a menores on-line de quem solicitava a produção de material de abuso sexual infantil.

O que o Google faz para impedir que os usuários busquem material de abuso sexual infantil na Pesquisa?

O Google implanta princípios de segurança desde a concepção para impedir os usuários de buscar esse tipo de material na Pesquisa. Nossa política é bloquear resultados da pesquisa que levam a material de abuso sexual infantil que parece vitimizar, colocar em risco ou explorar crianças sexualmente. Estamos sempre atualizando nossos algoritmos para combater essas ameaças em constante evolução. Empregamos proteções adicionais a qualquer pesquisa que identificamos buscar conteúdo de material de abuso sexual infantil. Filtramos resultados sexualmente explícitos se a consulta de pesquisa parecer buscar material de abuso sexual infantil. A Pesquisa não exibe imagens de menores de idade em consultas que buscam conteúdo explícito adulto, para que não haja qualquer associação entre crianças e conteúdo sexual. Em vários países, os usuários que digitam consultas claramente relacionadas a material de abuso sexual infantil recebem um aviso em destaque sobre essas imagens serem ilegais, além de informações sobre como denunciar esse conteúdo para organizações confiáveis. Quando esses avisos aparecem, notamos que a probabilidade de os usuários continuarem a buscar esse material é muito menor.

Como o Google contribui para o ecossistema de segurança das crianças e combate o material de abuso sexual infantil?

A equipe de segurança infantil do Google cria tecnologia que detecta, denuncia e remove material de abuso sexual infantil de forma precisa para proteger nossos usuários e evitar que crianças sejam prejudicadas nos produtos do Google. Para garantir que o ecossistema geral e o resto do setor também tenham acesso a essa tecnologia poderosa e ajudem a evitar a disseminação de material de abuso sexual infantil on-line, desenvolvemos o Kit de ferramentas para segurança infantil. Além disso, disponibilizamos a API Hash Matching do Google ao NCMEC para ajudar a priorizar e analisar denúncias "CyberTipline" com mais eficiência, permitindo focar as denúncias envolvendo crianças que precisam de ajuda imediata.

Também participamos ativamente de várias coalizões, como a Technology Coalition, a ICT Coalition, a WeProtect Global Alliance, a INHOPE e a Fair Play Alliance, que reúnem empresas e ONGs para desenvolver soluções que impedem a troca de material de abuso sexual infantil on-line e evitam a exploração sexual de crianças.

Como os órgãos governamentais enviam solicitações oficiais ao Google associadas com uma "CyberTip"?

Quando uma denúncia é recebida pelo NCMEC, ele pode a encaminhar aos órgãos responsáveis pelo cumprimento da lei no mundo todo. Depois disso, as autoridades podem enviar processos judiciais ao Google para pedir mais informações. Para facilitar tais requisições, o Google oferece um sistema on-line que permite que órgãos governamentais verificados enviem essas solicitações com segurança (Sistema de Solicitação de Aplicação da Lei — LERS). Esses órgãos podem conferir o status das solicitações enviadas com esse sistema on-line e, por fim, fazer o download da resposta do Google à solicitação. Para mais informações sobre o LERS ou se quiser criar uma conta, acesse lers.google.com. Para saber mais, consulte nossas políticas sobre Como o Google lida com solicitações governamentais de informações de usuários.

Como posso denunciar suspeitas de material de abuso sexual infantil?

Caso você encontre um link, site ou qualquer conteúdo que tenha material de abuso sexual infantil, denuncie à polícia, ao NCMEC ou a uma organização apropriada na sua localidade. Caso você veja ou tenha uma experiência com conteúdo ou comportamento inadequado em relação a crianças nos produtos do Google, há muitas maneiras de fazer uma denúncia para nós. Você pode ajudar a evitar que pessoas entrem em contato com seus filhos nos produtos do Google e filtrar o conteúdo exibido para eles gerenciando as configurações da Conta do Google.

Que equipes revisam os relatórios sobre material de abuso sexual infantil?

A revisão humana é uma parte fundamental do nosso trabalho contínuo para combater esse tipo de material. Os membros da nossa equipe contribuem para esse trabalho com conhecimentos avançados e experiência em direito, segurança e defesa infantil, trabalho social e investigações cibernéticas, entre outras áreas. Eles são especialmente treinados no escopo das nossas políticas e no que constitui legalmente material de abuso sexual infantil. As equipes de revisores têm treinamento especializado e recebem apoio psicológico. Para saber mais sobre como o Google aborda a moderação de conteúdo, incluindo como apoiamos o bem-estar dos revisores, clique aqui.

Que período esse relatório abrange?

As métricas apresentadas aqui representam os dados coletados das 00h00 (PST) de 1º de janeiro às 23h59 (PDT) de 30 de junho e das 00h00 (PDT) de 1º de julho às 23h59 (PST) de 31 de dezembro, a menos que especificado de outra forma.
Google Apps
Menu principal
13263147745154649790
true
Pesquisar na Central de Ajuda
true
true
true
false
false