O que é CSAM?
Qual é a abordagem do Google para combater esse material?
Como o Google identifica material de abuso sexual infantil na própria plataforma?
Investimos muito no combate contra a exploração sexual infantil on-line e usamos tecnologia para impedir, detectar e remover esse tipo de material das nossas plataformas. Isso inclui detecção automatizada e revisão humana, além do uso de relatórios enviados pelos nossos usuários e terceiros, como ONGs, para detectar, remover e denunciar o material nas nossas plataformas. Implementamos a correspondência de hashes, incluindo a CSAI Match do YouTube, para detectar material de abuso sexual infantil conhecido. Também implantamos classificadores de aprendizado de máquina para encontrar material que nunca foi visto antes, que depois é confirmado pelas nossas equipes de revisão especializadas. A detecção de CSAM nunca visto antes ajuda o ecossistema de segurança infantil de diversas maneiras, inclusive a identificar as vítimas que precisam de proteção e contribuir com o conjunto de hashes para aumentar nossas habilidades de detectar material conhecido. Com nossos classificadores, o Google criou a API Content Safety, que disponibilizamos a outras pessoas para ajudar a priorizar o conteúdo abusivo para revisão humana.
A CSAI Match e a API Content Safety estão disponíveis para entidades qualificadas que querem combater o abuso nas próprias plataformas. Clique aqui para saber mais.
O que o Google faz ao detectar material de abuso sexual infantil na própria plataforma?
O que é uma denúncia "CyberTipline" e que tipo de informações ela inclui?
Quando o Google encontra material de abuso sexual infantil, fazemos uma denúncia ao NCMEC. Essas denúncias são geralmente chamadas de relatórios "CyberTipLine" ou "CyberTips". Além disso, tentamos identificar casos envolvendo abuso físico de menor, produção de material de abuso sexual infantil e tráfego infantil. Nesses casos, enviamos um relatório "CyberTip" complementar ao NCMEC para ajudar a priorizar o caso. Uma denúncia enviada ao NCMEC pode incluir informações de identificação do usuário, da vítima menor de idade e/ou outros fatos contextuais úteis.
Confira abaixo alguns exemplos de impacto real que as denúncias do tipo "CyberTip" enviadas pelo Google tiveram no mundo. Eles oferecem apenas uma noção da grande variedade de denúncias que fazemos, mas não abrangem a totalidade delas.
- Uma denúncia "CyberTip" do Google relatou vários materiais de abuso sexual infantil envolvendo crianças da escola primária em um contexto de sala de aula. Alguns dos materiais denunciados não foram identificados anteriormente pelo Google e pareciam ser produzidos pelo proprietário da Conta do Google. O NCMEC encaminhou a denúncia às autoridades legais, levando à identificação e à proteção das duas crianças retratadas nas imagens de CSAM denunciadas.
- Uma denúncia "CyberTip" do Google relatou a solicitação e produção de CSAM pelo proprietário de uma Conta do Google, que pediu a criação de vários vídeos retratando a participação ativa no abuso de dezenas de meninos menores de idade em troca de dinheiro. O NCMEC encaminhou a denúncia às autoridades legais. O proprietário da conta foi condenado pela produção de material de abuso sexual infantil, e dezenas de crianças foram identificadas e protegidas do abuso contínuo.
- Uma denúncia "CyberTip" do Google informou um único material de abuso sexual infantil conhecido, levando à apreensão do proprietário da conta, que, de acordo com as autoridades legais, tinha vários outros materiais desse tipo e estava diretamente envolvido no abuso de menores sob os cuidados dele, além de permitir que eles fossem abusados por outras pessoas. Devido aos esforços do Google, do NCMEC e das autoridades legais, três crianças foram resgatadas do abuso sexual.
- Uma denúncia "CyberTip" do Google informou um material de abuso sexual infantil que foi criado pelo proprietário da Conta do Google e solicitado a menores a que o proprietário tinha acesso on-line. O proprietário da conta foi apreendido, e as autoridades legais determinaram que estava em uma posição de confiança como profissional médico: ele usava isso para abusar dos pacientes sob seus cuidados e tinha acesso direto a menores on-line de quem solicitava a produção de material de abuso sexual infantil.
O que o Google faz para impedir que os usuários busquem material de abuso sexual infantil na Pesquisa?
Como o Google contribui para o ecossistema de segurança das crianças e combate o material de abuso sexual infantil?
A equipe de segurança infantil do Google cria tecnologia que detecta, denuncia e remove material de abuso sexual infantil de forma precisa para proteger nossos usuários e evitar que crianças sejam prejudicadas nos produtos do Google. Para garantir que o ecossistema geral e o resto do setor também tenham acesso a essa tecnologia poderosa e ajudem a evitar a disseminação de material de abuso sexual infantil on-line, desenvolvemos o Kit de ferramentas para segurança infantil. Além disso, disponibilizamos a API Hash Matching do Google ao NCMEC para ajudar a priorizar e analisar denúncias "CyberTipline" com mais eficiência, permitindo focar as denúncias envolvendo crianças que precisam de ajuda imediata.
Também participamos ativamente de várias coalizões, como a Technology Coalition, a ICT Coalition, a WeProtect Global Alliance, a INHOPE e a Fair Play Alliance, que reúnem empresas e ONGs para desenvolver soluções que impedem a troca de material de abuso sexual infantil on-line e evitam a exploração sexual de crianças.