O que é CSAM?
Qual é a abordagem da Google para combater CSAM?
Como é que a Google identifica CSAM na respetiva plataforma?
Investimos fortemente no combate contra a exploração sexual de crianças online e usamos tecnologia para dissuadir, detetar e remover CSAM das nossas plataformas. Isto inclui deteção automática e revisão humana, além de confiarmos nas denúncias enviadas pelos nossos utilizadores e terceiros, como ONGs. Implementamos a correspondência de hash, incluindo o CSAI Match do YouTube, para detetar CSAM conhecido. Também implementamos classificadores de aprendizagem automática para descobrir CSAM nunca antes detetado, que é, em seguida, verificado pelas nossas equipas de revisão especializada. A deteção de CSAM nunca antes detetado ajuda o ecossistema de segurança infantil de várias formas, incluindo a identificação de crianças vítimas que necessitam de proteção e a contribuição para o aumento da nossa capacidade de detetar CSAM conhecido. Com os nossos classificadores, a Google criou a API de segurança do conteúdo, que fornecemos a outros para ajudar a dar prioridade a conteúdo abusivo para revisão humana.
O CSAI Match e a API de segurança do conteúdo estão disponíveis para as entidades elegíveis que pretendam combater o abuso nas respetivas plataformas. Veja aqui mais detalhes.
O que faz a Google quando deteta CSAM na respetiva plataforma?
O NCMEC funciona como um centro coordenador e centro de denúncias abrangente nos Estados Unidos para problemas relacionados com a exploração infantil. Quando o NCMEC recebe uma denúncia, pode encaminhá-la para organismos de aplicação da lei em todo o mundo.
O que é uma denúncia CyberTipline e que tipo de informações inclui?
Assim que a Google tem conhecimento do aparente CSAM, fazemos uma denúncia ao NCMEC. Estas denúncias são habitualmente denominadas denúncias CyberTipLine ou CyberTips. Além disso, tentamos identificar casos que envolvam abuso de um menor, produção de CSAM ou tráfico infantil. Nestes casos, enviamos uma denúncia CyberTip suplementar para o NCMEC para ajudar a dar prioridade ao assunto. Uma denúncia enviada ao NCMEC pode incluir informações que identifiquem o utilizador e a vítima menor, bem como o conteúdo em violação e/ou outros dados contextuais úteis.
Abaixo encontram-se alguns exemplos do impacto real das denúncias CyberTip que a Google enviou. Oferecem uma visão geral da grande variedade de denúncias que fazemos, mas não são abrangentes.
- Uma denúncia Cybertip da Google denunciou vários casos de CSAM com crianças do ensino básico em salas de aula. Alguns dos CSAM denunciados não foram previamente identificados pela Google e pareciam ter sido produzidos pelo titular da Conta Google. O NCMEC encaminhou a denúncia para a autoridade para a aplicação da lei, o que levou à identificação e salvaguarda de 2 menores retratados nas imagens CSAM denunciadas.
- Uma denúncia Cybertip da Google denunciou a solicitação e a produção de CSAM por um titular da conta, que pediu a realização de vários vídeos que retratavam o abuso de dezenas de menores em troca de dinheiro. O NCMEC encaminhou a denúncia para a autoridade para a aplicação da lei. O titular da conta foi condenado por produção de CSAM e várias dezenas de crianças foram identificadas e salvaguardadas de abusos contínuos.
- Uma denúncia Cybertip da Google identificou CSAM que foi produzido pelo titular da Conta Google e solicitado a menores aos quais o titular da conta tinha acesso online. O titular da conta foi posteriormente alvo de detenção e a autoridade para a aplicação da lei determinou que se encontrava num cargo de confiança enquanto profissional médico: usava este cargo para abusar dos pacientes ao seu cuidado e tinha acesso direto a menores online a quem solicitava a produção de CSAM.
Como é que a Google combate os riscos de CSAM no espaço da IA generativa (IA gen)?
O CSAM gerado pela IA ou as imagens geradas por computador que representem abuso sexual infantil são uma ameaça que a Google leva muito a sério. O nosso trabalho para detetar, remover e denunciar CSAM incluiu sempre conteúdo em violação que envolve menores, imagens modificadas de um menor identificável a participar em condutas sexualmente explícitas e imagens geradas por computador que são indistinguíveis de um menor real envolvido nessa conduta.
A Google coloca uma grande ênfase na segurança infantil quando cria os seus próprios modelos e produtos de IA gen. Seguimos os princípios da IA generativa responsável da Google para proteger todos os modelos da Google disponíveis publicamente e os serviços criados com base nestes modelos.
Implementamos várias proteções de segurança infantil para os nossos modelos e produtos de IA gen. Isto pode incluir proteções contra a presença de CSAM nos dados de preparação subjacentes aos nossos modelos, contra pedidos de procura e produção de CSAM e contra resultados em violação. Também realizamos testes de segurança infantil robustos nos nossos modelos antes do lançamento público para compreender e mitigar a possibilidade de geração de CSAM.
Também trabalhamos com outras entidades no ecossistema de segurança infantil, incluindo a Technology Coalition e ONGs de segurança infantil, para partilhar e compreender as práticas recomendadas à medida que esta tecnologia continua a evoluir.
What does Google do to deter users from seeking out CSAM on Search?
Como é que a Google contribui para o ecossistema de segurança infantil no combate ao CSAM?
A equipa de segurança infantil da Google cria tecnologia que deteta, denuncia e remove CSAM com precisão para proteger os nossos utilizadores e evitar que crianças sejam prejudicadas nos produtos Google. Desenvolvemos o Toolkit de segurança infantil para garantir que o ecossistema mais amplo também tem acesso a esta tecnologia poderosa e para ajudar a prevenir a proliferação online de material relativo a abuso sexual infantil. Além disso, disponibilizamos a API Hash Matching da Google ao NCMEC para ajudar a priorizar e rever denúncias CyberTipline de uma forma mais eficiente, permitindo que se concentrem nas denúncias que envolvem crianças que precisam de ajuda imediata.
Também partilhamos sinais de abuso e exploração sexual infantil para permitir a remoção de CSAM do ecossistema mais amplo. Partilhamos milhões de hashes de CSAM com a base de dados de hashes do setor do NCMEC para que outros fornecedores também possam aceder e usar estes hashes. Também nos associámos ao Project Lantern, um programa que permite às empresas de tecnologia partilhar sinais relevantes para combater a exploração e a violência sexual online de uma forma segura e responsável, compreendendo que este abuso pode ocorrer em várias plataformas e serviços.
Também somos membros ativos de várias coligações, como a Technology Coalition, a WeProtect Global Alliance e a INHOPE, que reúnem empresas e ONGs para desenvolver soluções que impeçam as trocas de CSAM online e previnam a exploração sexual de crianças. A Google dá prioridade à participação nestas coligações e, no trabalho com ONGs como o NCMEC e a Thorn, partilha os respetivos conhecimentos, explora práticas recomendadas e aprende sobre as mais recentes ameaças relativas aos principais problemas de segurança infantil.