O que é CSAM?
Qual é a abordagem do Google para o combate a material de abuso sexual infanti?
Como o Google identifica material de abuso sexual infantil na própria plataforma?
Investimos muito no combate contra a exploração sexual infantil on-line e usamos tecnologia para impedir, detectar e remover esse tipo de material das nossas plataformas. Isso inclui detecção automatizada e revisão humana, além do denúncias enviadas pelos nossos usuários e terceiros, como ONGs. Para detectar material de abuso sexual infantil conhecido, implantamos a correspondência de hashes, incluindo a CSAI Match do YouTube. Também implantamos classificadores de aprendizado de máquina para encontrar material que nunca foi visto antes, que depois é confirmado pelas nossas equipes de revisão especializadas. A detecção de material de abuso sexual infantil nunca visto antes ajuda o ecossistema de segurança infantil de diversas maneiras, inclusive a identificar as vítimas que precisam de proteção e contribuir com o conjunto de hashes para aumentar nossas habilidades de detectar material conhecido. Com nossos classificadores, o Google criou a API Content Safety, que podem ser usadas por outras organizações, para que elas também possam priorizar o conteúdo abusivo para revisão humana.
Disponibilizamos nossas tecnologias para esse tipo de combate, "CSAI Match" e "API Content Safety", para entidades qualificadas que querem combater o abuso nas próprias plataformas. Clique aqui para saber mais.
O que o Google faz ao detectar material de abuso sexual infantil na própria plataforma?
O NCMEC serve como uma central ampla e abrangente de denúncias nos Estados Unidos para questões relacionadas à exploração infantil. Quando uma denúncia é recebida pelo NCMEC, eles a encaminham às autoridades de segurança do mundo todo.
O que é uma denúncia CyberTipline e que tipo de informações ela inclui?
Quando o Google encontra material de abuso sexual infantil, fazemos uma denúncia ao NCMEC. Elas são geralmente chamadas de denúncias CyberTipLine ou só CyberTips. Além disso, tentamos identificar casos envolvendo abuso físico de menor, produção de material de abuso sexual infantil e tráfego infantil. Nesses casos, enviamos ao NCMEC uma denúncia CyberTip complementar, para priorizar o caso. Uma denúncia enviada ao NCMEC pode incluir informações de identificação do usuário e da vítima menor de idade, além do conteúdo com violações e/ou outros dados contextuais úteis.
Confira abaixo alguns exemplos de impacto real que as denúncias do tipo CyberTip enviadas pelo Google tiveram no mundo. Eles oferecem apenas uma noção da grande variedade de denúncias que fazemos, mas não abrangem a totalidade delas.
- Uma denúncia CyberTip do Google relatou vários materiais de abuso sexual infantil envolvendo crianças do ensino fundamental em um contexto de sala de aula. Alguns dos materiais denunciados não foram identificados anteriormente pelo Google e pareciam ser produzidos pelo proprietário da Conta do Google. O NCMEC encaminhou a denúncia às autoridades policiais, levando à identificação e à proteção das duas crianças retratadas nas imagens de CSAM denunciadas.
- Uma denúncia CyberTip do Google relatou a solicitação e produção de CSAM pelo proprietário de uma Conta do Google, que pediu a criação de vários vídeos retratando a participação ativa no abuso de dezenas de meninos menores de idade em troca de dinheiro. O NCMEC encaminhou a denúncia às autoridades policiais. O proprietário da conta foi condenado pela produção de CSAM, e dezenas de crianças foram identificadas e protegidas do abuso contínuo.
- Uma denúncia CyberTip do Google informou a existência de material de abuso sexual infantil criado por um proprietário de uma Conta do Google, além de solicitações feitas a menores aos quais ele tinha acesso on-line. O proprietário da conta foi apreendido, e as autoridades policiais determinaram que estava em uma posição de confiança como profissional médico: ele usava isso para abusar dos pacientes sob seus cuidados e tinha acesso direto a menores on-line de quem solicitava a produção de CSAM.
Como o Google combate os riscos de material de abuso sexual infantil gerado por IA (IA generativa)?
O CSAM gerado por IA ou as imagens geradas por computador que retratam abuso sexual infantil são uma ameaça que o Google leva muito a sério. Nosso trabalho para detectar, remover e denunciar CSAM sempre incluiu conteúdo com violações envolvendo menores de idade, imagens modificadas de menores identificáveis em conduta sexualmente explícita e imagens geradas por computador que são indistinguíveis de menores reais envolvidos nessa conduta.
O Google dá grande ênfase à segurança infantil ao criar produtos e modelos de IA generativa. Seguimos os princípios de IA generativa responsável (link em inglês) para proteger todos os nossos modelos disponíveis ao público e serviços criados com base nesses modelos.
Implementamos várias proteções de segurança infantil nos modelos e produtos de IA generativa. Isso inclui proteções contra: a presença de material de abuso sexual infantil nos dados de treinamento dos nossos modelos, comandos que buscam e geram esse tipo de material e resultados com violações. Realizamos testes robustos de segurança infantil nos nossos modelos, antes do lançamento público, para entender e reduzir a possibilidade de geração de material de abuso sexual infantil.
Também trabalhamos com outras organizações no ecossistema de segurança infantil, como a Technology Coalition (link em inglês), a aliança para o combate ao abuso infantil online, além de outras ONGs, para compartilhar e entender as práticas recomendadas conforme essa tecnologia evolui.
O que o Google faz para impedir que os usuários busquem material de abuso sexual infantil na Pesquisa?
Como o Google contribui para o ecossistema de segurança das crianças e combate o material de abuso sexual infantil?
A equipe de segurança infantil do Google cria tecnologia que detecta, denuncia e remove material de abuso sexual infantil de forma precisa para proteger nossos usuários e evitar que crianças sejam prejudicadas nos produtos do Google. Desenvolvemos o Kit de ferramentas para segurança infantil para garantir que o ecossistema em geral também tenha acesso a essa tecnologia avançada e ajudar a evitar a disseminação do material de abuso sexual infantil on-line. Além disso, disponibilizamos a API Hash Matching do Google ao NCMEC para priorizar a análise de denúncias "CyberTipline" com mais eficiência, focando as denúncias envolvendo crianças que precisam de ajuda imediata.
Também compartilhamos indicadores de abuso e exploração sexual infantil para facilitar a remoção desse material de todo o ecossistema. Compartilhamos milhões de hashes de material de abuso sexual infantil com o banco de dados de hashes do setor do NCMEC, para que possam ser acessados e usados por outros provedores. Participamos do Project Lantern (link em inglês), um programa que permite às empresas de tecnologia compartilhar indicadores relevantes para combater a exploração e o abuso sexual on-line de maneira segura e responsável, entendendo que esse abuso pode estar em várias plataformas e serviços.
Também participamos ativamente de várias coalizões, como a Technology Coalition, a WeProtect Global Alliance e a INHOPE, que reúnem empresas e ONGs para desenvolver soluções que impedem a troca de material de abuso sexual infantil on-line e evitam a exploração sexual de crianças. O Google prioriza a participação nessas coalizões e, ao trabalhar com ONGs como o NCMEC e a Thorn, compartilhamos nosso conhecimento, analisamos práticas recomendadas e aprendemos mais sobre as ameaças mais recentes relacionadas às principais questões de segurança infantil.