O que é CSAM?
Qual é a abordagem do Google para combater esse material?
Como o Google identifica material de abuso sexual infantil na própria plataforma?
Investimos muito no combate contra a exploração sexual infantil on-line e usamos tecnologia para impedir, detectar e remover esse tipo de material das nossas plataformas. Isso inclui detecção automatizada e revisão humana, além do uso de relatórios enviados pelos nossos usuários e terceiros, como ONGs. Para detectar CSAM conhecido, implementamos a correspondência de hashes, incluindo a CSAI Match do YouTube. Também implantamos classificadores de aprendizado de máquina para encontrar material que nunca foi visto antes, que depois é confirmado pelas nossas equipes de revisão especializadas. A detecção de CSAM nunca visto antes ajuda o ecossistema de segurança infantil de diversas maneiras, inclusive a identificar as vítimas que precisam de proteção e contribuir com o conjunto de hashes para aumentar nossas habilidades de detectar material conhecido. Com nossos classificadores, o Google criou a API Content Safety, que disponibilizamos a outras pessoas para ajudar a priorizar o conteúdo abusivo para revisão humana.
A CSAI Match e a API Content Safety estão disponíveis para entidades qualificadas que querem combater o abuso nas próprias plataformas. Clique aqui para saber mais.
O que o Google faz ao detectar material de abuso sexual infantil na própria plataforma?
O NCMEC serve como uma central ampla e abrangente de denúncias nos Estados Unidos para questões relacionadas à exploração infantil. Quando uma denúncia é recebida pelo NCMEC, ele pode a encaminhar aos órgãos responsáveis pelo cumprimento da lei no mundo todo.
O que é uma denúncia "CyberTipline" e que tipo de informações ela inclui?
Quando o Google encontra material de abuso sexual infantil, fazemos uma denúncia ao NCMEC. Essas denúncias são geralmente chamadas de relatórios "CyberTipLine" ou "CyberTips". Além disso, tentamos identificar casos envolvendo abuso físico de menor, produção de material de abuso sexual infantil e tráfego infantil. Nesses casos, enviamos um relatório "CyberTip" complementar ao NCMEC para ajudar a priorizar o caso. Uma denúncia enviada ao NCMEC pode incluir informações de identificação do usuário e da vítima menor de idade, além do conteúdo com violações e/ou outros dados contextuais úteis.
Confira abaixo alguns exemplos de impacto real que as denúncias do tipo "CyberTip" enviadas pelo Google tiveram no mundo. Eles oferecem apenas uma noção da grande variedade de denúncias que fazemos, mas não abrangem a totalidade delas.
- Uma denúncia "CyberTip" do Google relatou vários materiais de abuso sexual infantil envolvendo crianças da escola primária em um contexto de sala de aula. Alguns dos materiais denunciados não foram identificados anteriormente pelo Google e pareciam ser produzidos pelo proprietário da Conta do Google. O NCMEC encaminhou a denúncia às autoridades legais, levando à identificação e à proteção das duas crianças retratadas nas imagens de CSAM denunciadas.
- Uma denúncia "CyberTip" do Google relatou a solicitação e produção de CSAM pelo proprietário de uma Conta do Google, que pediu a criação de vários vídeos retratando a participação ativa no abuso de dezenas de meninos menores de idade em troca de dinheiro. O NCMEC encaminhou a denúncia às autoridades legais. O proprietário da conta foi condenado pela produção de material de abuso sexual infantil, e dezenas de crianças foram identificadas e protegidas do abuso contínuo.
- Uma denúncia "CyberTip" do Google informou um único material de abuso sexual infantil conhecido, levando à apreensão do proprietário da conta, que, de acordo com as autoridades legais, tinha vários outros materiais desse tipo e estava diretamente envolvido no abuso de menores sob os cuidados dele, além de permitir que eles fossem abusados por outras pessoas. Devido aos esforços do Google, do NCMEC e das autoridades legais, três crianças foram resgatadas do abuso sexual.
- Uma denúncia "CyberTip" do Google informou um material de abuso sexual infantil que foi criado pelo proprietário da Conta do Google e solicitado a menores a que o proprietário tinha acesso on-line. O proprietário da conta foi apreendido, e as autoridades legais determinaram que estava em uma posição de confiança como profissional médico: ele usava isso para abusar dos pacientes sob seus cuidados e tinha acesso direto a menores on-line de quem solicitava a produção de material de abuso sexual infantil.
Como o Google combate os riscos de material de abuso sexual infantil gerado por IA (IA generativa)?
O CSAM gerado por IA ou as imagens geradas por computador que retratam abuso sexual infantil são uma ameaça que o Google leva muito a sério. Nosso trabalho para detectar, remover e denunciar CSAM sempre incluiu conteúdo com violações envolvendo menores de idade, imagens modificadas de menores identificáveis em conduta sexualmente explícita e imagens geradas por computador que são indistinguíveis de menores reais envolvidos nessa conduta.
O Google dá grande ênfase à segurança infantil ao criar produtos e modelos de IA generativa. Seguimos os princípios de IA generativa responsável para proteger todos os nossos modelos disponíveis ao público e serviços criados com base nesses modelos.
Implementamos várias proteções de segurança infantil nos modelos e produtos de IA generativa. Isso inclui proteções contra: a presença de CSAM nos dados de treinamento dos nossos modelos; prompts que buscam e geram CSAM; e resultados com violações. Também conduzimos testes robustos de segurança infantil nos nossos modelos antes do lançamento público para entender e reduzir a possibilidade de geração de CSAM.
Também trabalhamos com outras pessoas no ecossistema de segurança infantil, incluindo a Technology Coalition (link em inglês) e ONGs de segurança infantil, para compartilhar e entender as práticas recomendadas conforme essa tecnologia evolui.
O que o Google faz para impedir que os usuários busquem material de abuso sexual infantil na Pesquisa?
Como o Google contribui para o ecossistema de segurança das crianças e combate o material de abuso sexual infantil?
A equipe de segurança infantil do Google cria tecnologia que detecta, denuncia e remove material de abuso sexual infantil de forma precisa para proteger nossos usuários e evitar que crianças sejam prejudicadas nos produtos do Google. Desenvolvemos o Kit de ferramentas para segurança infantil para garantir que o ecossistema em geral também tenha acesso a essa tecnologia avançada e ajudar a evitar a disseminação do material de abuso sexual infantil on-line. Além disso, disponibilizamos a API Hash Matching do Google ao NCMEC para ajudar a priorizar e analisar denúncias "CyberTipline" com mais eficiência, permitindo focar as denúncias envolvendo crianças que precisam de ajuda imediata.
Também compartilhamos indicadores de abuso e exploração sexual infantil para permitir a remoção desse material de todo o ecossistema. Compartilhamos milhões de hashes de material de abuso sexual infantil com o banco de dados de hashes do setor do NCMEC, para que possam ser acessados e usados por outros provedores. Também assinamos o Project Lantern (link em inglês), um programa que permite às empresas de tecnologia compartilhar indicadores relevantes para combater a exploração e o abuso sexual on-line de maneira segura e responsável, entendendo que esse abuso pode estar em várias plataformas e serviços.
Também participamos ativamente de várias coalizões, como a Technology Coalition, a WeProtect Global Alliance e a INHOPE, que reúnem empresas e ONGs para desenvolver soluções que impedem a troca de material de abuso sexual infantil on-line e evitam a exploração sexual de crianças. O Google prioriza a participação nessas coalizões e, ao trabalhar com ONGs como o NCMEC e a Thorn, compartilhamos nosso conhecimento, analisamos práticas recomendadas e aprendemos mais sobre as ameaças mais recentes relacionadas às principais questões de segurança infantil.