Perguntas frequentes sobre os esforços da Google para combater o material online relativo a abuso sexual infantil

O que é CSAM?

CSAM é a sigla inglesa para material relativo a abuso sexual infantil. Consiste em qualquer representação visual, incluindo, entre outros, fotos, vídeos e imagens geradas por computador, que impliquem o envolvimento de um menor numa conduta sexualmente explícita. Reconhecemos que CSAM não é a mesma coisa que nudez infantil e as nossas políticas e sistemas são especificamente concebidos para reconhecer e distinguir imagens que não apresentam gravidade, como uma criança a brincar na banheira ou no quintal, que não é de natureza sexual e não é CSAM, de imagens que envolvem violência sexual infantil ou a exposição lasciva de órgãos genitais e partes íntimas em violação de leis globais. Além disso, existem outros tipos de imagens obscenas ou de exploração que incluem ou representam crianças, como representações em desenhos animados de abuso sexual infantil ou tentativas de representações humorísticas de exploração sexual infantil. Estas imagens também podem ser uma violação de leis globais.

Qual é a abordagem da Google para combater CSAM?

A Google está empenhada em combater CSAM online e impedir que as respetivas plataformas sejam usadas para criar, armazenar ou distribuir este material. Dedicamos recursos significativos (tecnologia, pessoas e tempo) à deteção, dissuasão, remoção e denúncia de conteúdos e comportamentos de exploração sexual infantil. Para mais informações sobre os nossos esforços para proteger crianças e famílias, consulte o Centro de segurança da Google, as Regras da Comunidade do YouTube, o nosso Site de proteção das crianças e o nosso blogue sobre como detetamos, removemos e denunciamos CSAM.

Como é que a Google identifica CSAM na respetiva plataforma?

Investimos fortemente no combate contra a exploração sexual de crianças online e usamos tecnologia para dissuadir, detetar e remover CSAM das nossas plataformas. Isto inclui deteção automática e revisão humana, além de confiarmos nas denúncias enviadas pelos nossos utilizadores e terceiros, como ONGs. Implementamos a correspondência de hash, incluindo o CSAI Match do YouTube, para detetar CSAM conhecido.  Também implementamos classificadores de aprendizagem automática para descobrir CSAM nunca antes detetado, que é, em seguida, verificado pelas nossas equipas de revisão especializada. A deteção de CSAM nunca antes detetado ajuda o ecossistema de segurança infantil de várias formas, incluindo a identificação de crianças vítimas que necessitam de proteção e a contribuição para o aumento da nossa capacidade de detetar CSAM conhecido. Com os nossos classificadores, a Google criou a API de segurança do conteúdo, que fornecemos a outros para ajudar a dar prioridade a conteúdo abusivo para revisão humana. 


O CSAI Match e a API de segurança do conteúdo estão disponíveis para as entidades elegíveis que pretendam combater o abuso nas respetivas plataformas. Veja aqui mais detalhes.

O que faz a Google quando deteta CSAM na respetiva plataforma?

Quando detetamos CSAM nas nossas plataformas, removêmo-lo, fazemos uma denúncia "CyberTipline" ao NCMEC e, consoante a natureza e a gravidade da violação, podemos apresentar um aviso, limitar o acesso de uma conta a determinados produtos ou serviços Google, ou desativar a Conta Google. Também podemos aplicar uma revisão adicional da Conta Google para identificar CSAM adicional e/ou garantir que estamos a ter em consideração o contexto relevante para garantir que estamos a tomar ações de aplicação adequadas e proporcionais em relação ao material identificado na Conta Google.

 

O NCMEC funciona como um centro coordenador e centro de denúncias abrangente nos Estados Unidos para problemas relacionados com a exploração infantil. Quando o NCMEC recebe uma denúncia, pode encaminhá-la para organismos de aplicação da lei em todo o mundo.

O que é uma denúncia CyberTipline e que tipo de informações inclui?

Assim que a Google tem conhecimento do aparente CSAM, fazemos uma denúncia ao NCMEC. Estas denúncias são habitualmente denominadas denúncias CyberTipLine ou CyberTips. Além disso, tentamos identificar casos que envolvam abuso de um menor, produção de CSAM ou tráfico infantil. Nestes casos, enviamos uma denúncia CyberTip suplementar para o NCMEC para ajudar a dar prioridade ao assunto. Uma denúncia enviada ao NCMEC pode incluir informações que identifiquem o utilizador e a vítima menor, bem como o conteúdo em violação e/ou outros dados contextuais úteis.

Abaixo encontram-se alguns exemplos do impacto real das denúncias CyberTip que a Google enviou. Oferecem uma visão geral da grande variedade de denúncias que fazemos, mas não são abrangentes.  

  • Uma denúncia Cybertip da Google denunciou vários casos de CSAM com crianças do ensino básico em salas de aula. Alguns dos CSAM denunciados não foram previamente identificados pela Google e pareciam ter sido produzidos pelo titular da Conta Google. O NCMEC encaminhou a denúncia para a autoridade para a aplicação da lei, o que levou à identificação e salvaguarda de 2 menores retratados nas imagens CSAM denunciadas.  
  • Uma denúncia Cybertip da Google denunciou a solicitação e a produção de CSAM por um titular da conta, que pediu a realização de vários vídeos que retratavam o abuso de dezenas de menores em troca de dinheiro. O NCMEC encaminhou a denúncia para a autoridade para a aplicação da lei. O titular da conta foi condenado por produção de CSAM e várias dezenas de crianças foram identificadas e salvaguardadas de abusos contínuos.
  • Uma denúncia Cybertip da Google identificou CSAM que foi produzido pelo titular da Conta Google e solicitado a menores aos quais o titular da conta tinha acesso online. O titular da conta foi posteriormente alvo de detenção e a autoridade para a aplicação da lei determinou que se encontrava num cargo de confiança enquanto profissional médico: usava este cargo para abusar dos pacientes ao seu cuidado e tinha acesso direto a menores online a quem solicitava a produção de CSAM.

Como é que a Google combate os riscos de CSAM no espaço da IA generativa (IA gen)?

O CSAM gerado pela IA ou as imagens geradas por computador que representem abuso sexual infantil são uma ameaça que a Google leva muito a sério. O nosso trabalho para detetar, remover e denunciar CSAM incluiu sempre conteúdo em violação que envolve menores, imagens modificadas de um menor identificável a participar em condutas sexualmente explícitas e imagens geradas por computador que são indistinguíveis de um menor real envolvido nessa conduta.

A Google coloca uma grande ênfase na segurança infantil quando cria os seus próprios modelos e produtos de IA gen. Seguimos os princípios da IA generativa responsável da Google para proteger todos os modelos da Google disponíveis publicamente e os serviços criados com base nestes modelos.

Implementamos várias proteções de segurança infantil para os nossos modelos e produtos de IA gen. Isto pode incluir proteções contra a presença de CSAM nos dados de preparação subjacentes aos nossos modelos, contra pedidos de procura e produção de CSAM e contra resultados em violação. Também realizamos testes de segurança infantil robustos nos nossos modelos antes do lançamento público para compreender e mitigar a possibilidade de geração de CSAM.

Também trabalhamos com outras entidades no ecossistema de segurança infantil, incluindo a Technology Coalition e ONGs de segurança infantil, para partilhar e compreender as práticas recomendadas à medida que esta tecnologia continua a evoluir.

What does Google do to deter users from seeking out CSAM on Search?

A Google implementa princípios intrínsecos de segurança para dissuadir os utilizadores de procurarem CSAM na Pesquisa. A nossa política consiste em bloquear resultados da pesquisa que levem a material relativo a abuso sexual infantil que pareça vitimizar sexualmente, pôr em perigo ou, de outra forma, explorar crianças. Atualizamos constantemente os nossos algoritmos para combater estas ameaças em evolução. Removemos sempre CSAM quando é identificado e despromovemos todo o conteúdo de sites com uma elevada proporção de conteúdo CSAM. Aplicamos proteções adicionais às pesquisas que entendemos estarem à procura de conteúdo CSAM. Filtramos os resultados sexuais explícitos se a consulta de pesquisa parecer estar a procurar CSAM e, em pesquisas que procuram conteúdo explícito para adultos, a pesquisa não devolve imagens que incluam crianças, para acabar com a associação entre crianças e conteúdos de natureza sexual. Em vários países, os utilizadores que introduzem consultas claramente relacionadas com CSAM recebem um aviso proeminente de que as imagens de abuso sexual infantil são ilegais, com informações sobre como denunciar este conteúdo a organizações de confiança. Descobrimos que, quando estes avisos são apresentados, é menos provável que os utilizadores continuem a procurar este material.

Como é que a Google contribui para o ecossistema de segurança infantil no combate ao CSAM?

A equipa de segurança infantil da Google cria tecnologia que deteta, denuncia e remove CSAM com precisão para proteger os nossos utilizadores e evitar que crianças sejam prejudicadas nos produtos Google. Desenvolvemos o Toolkit de segurança infantil para garantir que o ecossistema mais amplo também tem acesso a esta tecnologia poderosa e para ajudar a prevenir a proliferação online de material relativo a abuso sexual infantil. Além disso, disponibilizamos a API Hash Matching da Google ao NCMEC para ajudar a priorizar e rever denúncias CyberTipline de uma forma mais eficiente, permitindo que se concentrem nas denúncias que envolvem crianças que precisam de ajuda imediata. 

Também partilhamos sinais de abuso e exploração sexual infantil para permitir a remoção de CSAM do ecossistema mais amplo. Partilhamos milhões de hashes de CSAM com a base de dados de hashes do setor do NCMEC para que outros fornecedores também possam aceder e usar estes hashes. Também nos associámos ao Project Lantern, um programa que permite às empresas de tecnologia partilhar sinais relevantes para combater a exploração e a violência sexual online de uma forma segura e responsável, compreendendo que este abuso pode ocorrer em várias plataformas e serviços.

Também somos membros ativos de várias coligações, como a Technology Coalition, a WeProtect Global Alliance e a INHOPE, que reúnem empresas e ONGs para desenvolver soluções que impeçam as trocas de CSAM online e previnam a exploração sexual de crianças. A Google dá prioridade à participação nestas coligações e, no trabalho com ONGs como o NCMEC e a Thorn, partilha os respetivos conhecimentos, explora práticas recomendadas e aprende sobre as mais recentes ameaças relativas aos principais problemas de segurança infantil.

Como podem os organismos governamentais enviar solicitações legais à Google associadas a uma CyberTip?

Quando o NCMEC recebe uma denúncia, pode encaminhá-la para organismos de aplicação da lei em todo o mundo. O organismo de aplicação da lei pode, posteriormente, enviar um processo legal à Google para procurar mais informações (Sistema de Requisição de Intervenção Governamental – LERS). Para facilitar estes pedidos, a Google disponibiliza um sistema online que permite que os organismos governamentais validados enviem em segurança pedidos de informações adicionais. Desta forma, estes organismos podem ver o estado dos pedidos enviados através deste sistema online e, em última instância, transferir as respostas da Google aos respetivos pedidos. Para obter mais informações sobre o SRIG ou para configurar uma conta do SRIG, visite lers.google.com. Para mais informações, consulte as nossas políticas relativas à forma como a Google processa os pedidos governamentais de informações sobre os utilizadores.

 Como posso denunciar uma suspeita de CSAM?

Se encontrar um link, um Website ou qualquer conteúdo que seja CSAM, pode denunciá-lo à polícia, ao NCMEC ou a uma entidade adequada no seu local. Caso detete ou se depare com conteúdo ou comportamento impróprio em relação a crianças nos produtos Google, existem várias formas de o denunciar à Google, inclusive através da denúncia de ofensas de negligência infantil (por exemplo, aliciamento e sedução de menores, extorsão sexual e outras formas de exploração sexual de crianças) que ocorram em produtos Google. Pode ajudar a evitar que pessoas entrem em contacto com a criança nos produtos Google e filtrar o conteúdo que a criança vê gerindo as respetivas definições da Conta Google.

Que equipas reveem as denúncias de CSAM?

A revisão humana é uma parte fundamental do nosso trabalho contínuo para combater CSAM. Os membros da nossa equipa contribuem com conhecimentos profundos para este trabalho com formação jurídica, segurança e defesa infantil, trabalho social e investigações cibernéticas, entre outras áreas. Possuem formação especializada no âmbito da nossa política e no que legalmente constitui material relativo a abuso sexual infantil. As equipas de revisores têm formação especializada e recebem apoio psíquico. Para saber mais sobre a forma como a Google aborda a moderação de conteúdo, incluindo como apoiamos o bem-estar dos revisores, veja aqui.

Qual é o período abrangido por este relatório?

As métricas apresentadas aqui representam dados recolhidos das 00:00 PST do dia 1 de janeiro às 23:59 PDT do dia 30 de junho e das 00:00 PDT do dia 1 de julho às 23:59 PST do dia 31 de dezembro, salvo especificação em contrário.
Menu principal
16426246004515194805
true
Pesquisar no Centro de ajuda
false
true
true
true
false
false
false
false