Perguntas frequentes sobre os esforços do Google para combater material de abuso sexual infantil on-line

O que é CSAM?

A sigla CSAM, em inglês, significa material de abuso sexual infantil. Esse material consiste em qualquer representação visual, incluindo, mas não se limitando a, fotos, vídeos e imagens geradas por computador que contenham um menor envolvido em conduta sexualmente explícita. Reconhecemos que esse tipo de material não é o mesmo que nudez infantil. Nossos sistemas e políticas são feitos especificamente para reconhecer e distinguir imagens sem problemas, como uma criança brincando em uma banheira ou um quintal (o que não é de natureza sexual nem CSAM), de imagens que envolvem abuso sexual de crianças ou exibição lasciva de genitália e partes íntimas que viola a legislação global. Além disso, existem outros tipos de imagens obscenas ou abusivas que incluem ou representam crianças, como representações de abuso sexual infantil em desenhos animados ou tentativas de representar a exploração sexual infantil de forma cômica. Essas imagens também violam a legislação global.

Qual é a abordagem do Google para combater esse material?

O Google tem o compromisso de combater o material de abuso sexual infantil on-line e evitar que ele seja criado, armazenado ou distribuído nas nossas plataformas. Dedicamos recursos significativos, como tecnologia, pessoas e tempo, à detecção, dissuasão, remoção e denúncia de conteúdo e comportamento de exploração sexual infantil. Para saber mais sobre nossos esforços para proteger crianças e famílias, consulte a Central de segurança do Google, as Diretrizes da Comunidade do YouTube, o site de proteção às crianças e nossa postagem do blog sobre como detectamos, removemos e denunciamos CSAM.

Como o Google identifica material de abuso sexual infantil na própria plataforma?

Investimos muito no combate contra a exploração sexual infantil on-line e usamos tecnologia para impedir, detectar e remover esse tipo de material das nossas plataformas. Isso inclui detecção automatizada e revisão humana, além do uso de relatórios enviados pelos nossos usuários e terceiros, como ONGs. Para detectar CSAM conhecido, implementamos a correspondência de hashes, incluindo a CSAI Match do YouTube. Também implantamos classificadores de aprendizado de máquina para encontrar material que nunca foi visto antes, que depois é confirmado pelas nossas equipes de revisão especializadas. A detecção de CSAM nunca visto antes ajuda o ecossistema de segurança infantil de diversas maneiras, inclusive a identificar as vítimas que precisam de proteção e contribuir com o conjunto de hashes para aumentar nossas habilidades de detectar material conhecido. Com nossos classificadores, o Google criou a API Content Safety, que disponibilizamos a outras pessoas para ajudar a priorizar o conteúdo abusivo para revisão humana.


A CSAI Match e a API Content Safety estão disponíveis para entidades qualificadas que querem combater o abuso nas próprias plataformas. Clique aqui para saber mais.

O que o Google faz ao detectar material de abuso sexual infantil na própria plataforma?

Quando detectamos esse material nas nossas plataformas, nós o removemos, fazemos uma denúncia CyberTipline para o NCMEC e, dependendo da natureza e gravidade da violação, podemos enviar um aviso, limitar o acesso a determinados produtos/serviços do Google ou desativar a Conta do Google. Também podemos fazer uma análise mais detalhada dessa conta para identificar mais CSAM e/ou garantir que estamos considerando o contexto relevante e tomando as ações de fiscalização adequadas e proporcionais em relação ao material identificado na Conta do Google.

 

O NCMEC serve como uma central ampla e abrangente de denúncias nos Estados Unidos para questões relacionadas à exploração infantil. Quando uma denúncia é recebida pelo NCMEC, ele pode a encaminhar aos órgãos responsáveis pelo cumprimento da lei no mundo todo.

O que é uma denúncia "CyberTipline" e que tipo de informações ela inclui?

Quando o Google encontra material de abuso sexual infantil, fazemos uma denúncia ao NCMEC. Essas denúncias são geralmente chamadas de relatórios "CyberTipLine" ou "CyberTips". Além disso, tentamos identificar casos envolvendo abuso físico de menor, produção de material de abuso sexual infantil e tráfego infantil. Nesses casos, enviamos um relatório "CyberTip" complementar ao NCMEC para ajudar a priorizar o caso. Uma denúncia enviada ao NCMEC pode incluir informações de identificação do usuário e da vítima menor de idade, além do conteúdo com violações e/ou outros dados contextuais úteis.

Confira abaixo alguns exemplos de impacto real que as denúncias do tipo "CyberTip" enviadas pelo Google tiveram no mundo. Eles oferecem apenas uma noção da grande variedade de denúncias que fazemos, mas não abrangem a totalidade delas.  

  • Uma denúncia "CyberTip" do Google relatou vários materiais de abuso sexual infantil envolvendo crianças da escola primária em um contexto de sala de aula. Alguns dos materiais denunciados não foram identificados anteriormente pelo Google e pareciam ser produzidos pelo proprietário da Conta do Google. O NCMEC encaminhou a denúncia às autoridades legais, levando à identificação e à proteção das duas crianças retratadas nas imagens de CSAM denunciadas.  
  • Uma denúncia "CyberTip" do Google relatou a solicitação e produção de CSAM pelo proprietário de uma Conta do Google, que pediu a criação de vários vídeos retratando a participação ativa no abuso de dezenas de meninos menores de idade em troca de dinheiro. O NCMEC encaminhou a denúncia às autoridades legais. O proprietário da conta foi condenado pela produção de material de abuso sexual infantil, e dezenas de crianças foram identificadas e protegidas do abuso contínuo.
  • Uma denúncia "CyberTip" do Google informou um único material de abuso sexual infantil conhecido, levando à apreensão do proprietário da conta, que, de acordo com as autoridades legais, tinha vários outros materiais desse tipo e estava diretamente envolvido no abuso de menores sob os cuidados dele, além de permitir que eles fossem abusados por outras pessoas. Devido aos esforços do Google, do NCMEC e das autoridades legais, três crianças foram resgatadas do abuso sexual.
  • Uma denúncia "CyberTip" do Google informou um material de abuso sexual infantil que foi criado pelo proprietário da Conta do Google e solicitado a menores a que o proprietário tinha acesso on-line. O proprietário da conta foi apreendido, e as autoridades legais determinaram que estava em uma posição de confiança como profissional médico: ele usava isso para abusar dos pacientes sob seus cuidados e tinha acesso direto a menores on-line de quem solicitava a produção de material de abuso sexual infantil.

Como o Google combate os riscos de material de abuso sexual infantil gerado por IA (IA generativa)?

O CSAM gerado por IA ou as imagens geradas por computador que retratam abuso sexual infantil são uma ameaça que o Google leva muito a sério. Nosso trabalho para detectar, remover e denunciar CSAM sempre incluiu conteúdo com violações envolvendo menores de idade, imagens modificadas de menores identificáveis em conduta sexualmente explícita e imagens geradas por computador que são indistinguíveis de menores reais envolvidos nessa conduta.

O Google dá grande ênfase à segurança infantil ao criar produtos e modelos de IA generativa. Seguimos os princípios de IA generativa responsável para proteger todos os nossos modelos disponíveis ao público e serviços criados com base nesses modelos.

Implementamos várias proteções de segurança infantil nos modelos e produtos de IA generativa. Isso inclui proteções contra: a presença de CSAM nos dados de treinamento dos nossos modelos; prompts que buscam e geram CSAM; e resultados com violações. Também conduzimos testes robustos de segurança infantil nos nossos modelos antes do lançamento público para entender e reduzir a possibilidade de geração de CSAM.

Também trabalhamos com outras pessoas no ecossistema de segurança infantil, incluindo a Technology Coalition (link em inglês) e ONGs de segurança infantil, para compartilhar e entender as práticas recomendadas conforme essa tecnologia evolui.

O que o Google faz para impedir que os usuários busquem material de abuso sexual infantil na Pesquisa?

O Google implanta princípios de segurança desde a concepção para impedir os usuários de buscar esse tipo de material na Pesquisa. Nossa política é bloquear resultados da pesquisa que levam a material de abuso sexual infantil que parece vitimizar, colocar em risco ou explorar crianças sexualmente. Estamos sempre atualizando nossos algoritmos para combater essas ameaças em constante evolução. Empregamos proteções adicionais a qualquer pesquisa que identificamos buscar conteúdo de material de abuso sexual infantil. Filtramos resultados sexualmente explícitos se a consulta de pesquisa parecer buscar material de abuso sexual infantil. A Pesquisa não exibe imagens de menores de idade em consultas que buscam conteúdo explícito adulto, para que não haja qualquer associação entre crianças e conteúdo sexual. Além de remover o material de abuso sexual infantil do índice da Pesquisa quando ele é identificado, também rebaixamos todo o conteúdo de sites com uma alta proporção desse material. Em vários países, os usuários que digitam consultas claramente relacionadas a material de abuso sexual infantil recebem um aviso em destaque sobre essas imagens serem ilegais, além de informações sobre como denunciar esse conteúdo para organizações confiáveis. Quando esses avisos aparecem, notamos que a probabilidade de os usuários continuarem a buscar esse material é muito menor.

Como o Google contribui para o ecossistema de segurança das crianças e combate o material de abuso sexual infantil?

A equipe de segurança infantil do Google cria tecnologia que detecta, denuncia e remove material de abuso sexual infantil de forma precisa para proteger nossos usuários e evitar que crianças sejam prejudicadas nos produtos do Google. Desenvolvemos o Kit de ferramentas para segurança infantil para garantir que o ecossistema em geral também tenha acesso a essa tecnologia avançada e ajudar a evitar a disseminação do material de abuso sexual infantil on-line. Além disso, disponibilizamos a API Hash Matching do Google ao NCMEC para ajudar a priorizar e analisar denúncias "CyberTipline" com mais eficiência, permitindo focar as denúncias envolvendo crianças que precisam de ajuda imediata.

Também compartilhamos indicadores de abuso e exploração sexual infantil para permitir a remoção desse material de todo o ecossistema. Compartilhamos milhões de hashes de material de abuso sexual infantil com o banco de dados de hashes do setor do NCMEC, para que possam ser acessados e usados por outros provedores. Também assinamos o Project Lantern (link em inglês), um programa que permite às empresas de tecnologia compartilhar indicadores relevantes para combater a exploração e o abuso sexual on-line de maneira segura e responsável, entendendo que esse abuso pode estar em várias plataformas e serviços.

Também participamos ativamente de várias coalizões, como a Technology Coalition, a WeProtect Global Alliance e a INHOPE, que reúnem empresas e ONGs para desenvolver soluções que impedem a troca de material de abuso sexual infantil on-line e evitam a exploração sexual de crianças. O Google prioriza a participação nessas coalizões e, ao trabalhar com ONGs como o NCMEC e a Thorn, compartilhamos nosso conhecimento, analisamos práticas recomendadas e aprendemos mais sobre as ameaças mais recentes relacionadas às principais questões de segurança infantil.

Como os órgãos governamentais enviam solicitações oficiais ao Google associadas com uma "CyberTip"?

Quando uma denúncia é recebida pelo NCMEC, ele pode a encaminhar aos órgãos responsáveis pelo cumprimento da lei no mundo todo. Depois disso, as autoridades podem enviar processos judiciais ao Google para pedir mais informações. Para facilitar tais requisições, o Google oferece um sistema on-line que permite que órgãos governamentais verificados enviem essas solicitações com segurança (Sistema de Solicitação de Aplicação da Lei — LERS). Esses órgãos podem conferir o status das solicitações enviadas com esse sistema on-line e, por fim, fazer o download da resposta do Google à solicitação. Para mais informações sobre o LERS ou se quiser criar uma conta, acesse lers.google.com. Para saber mais, consulte nossas políticas sobre Como o Google lida com solicitações governamentais de informações de usuários.

Como posso denunciar suspeitas de material de abuso sexual infantil?

Caso você encontre um link, site ou qualquer conteúdo que tenha material de abuso sexual infantil, denuncie à polícia, ao NCMEC ou a uma organização adequada na sua localidade. Caso você encontre ou tenha uma experiência com conteúdo ou comportamento inadequado em relação a crianças nos produtos do Google, há muitas maneiras de fazer uma denúncia. Isso inclui denunciar os crimes de risco para crianças (por exemplo, aliciamento, sextorção e outras formas de exploração sexual de crianças) que ocorrem em produtos do Google. Você pode ajudar a evitar que pessoas entrem em contato com suas crianças nos produtos do Google e filtrar o conteúdo exibido para elas gerenciando as configurações da Conta do Google.

Que equipes revisam os relatórios sobre material de abuso sexual infantil?

A revisão humana é uma parte fundamental do nosso trabalho contínuo para combater esse tipo de material. Os membros da nossa equipe contribuem para esse trabalho com conhecimentos avançados e experiência em direito, segurança e defesa infantil, trabalho social e investigações cibernéticas, entre outras áreas. Eles são especialmente treinados no escopo das nossas políticas e no que constitui legalmente material de abuso sexual infantil. As equipes de revisores têm treinamento especializado e recebem apoio psicológico. Para saber mais sobre como o Google aborda a moderação de conteúdo, incluindo como apoiamos o bem-estar dos revisores, clique aqui.

Que período esse relatório abrange?

As métricas apresentadas aqui representam os dados coletados das 00h00 (PST) de 1º de janeiro às 23h59 (PDT) de 30 de junho e das 00h00 (PDT) de 1º de julho às 23h59 (PST) de 31 de dezembro, a menos que especificado de outra forma.
Menu principal
8871743383278451522
true
Pesquisar na Central de Ajuda
true
true
true
false
false