¿Qué es el CSAM?
¿Cómo combate Google el material de abuso sexual infantil?
¿Cómo detecta Google el material de abuso sexual infantil en sus plataformas?
Invertimos muchos recursos en luchar contra la explotación sexual infantil online y usamos tecnología que nos permite disuadir, detectar y retirar material de abuso sexual infantil de nuestras plataformas. Esto incluye la detección automática y la revisión humana, además de las denuncias que presentan nuestros usuarios y terceros (como las ONGs). Utilizamos tecnologías basadas en la coincidencia de hash, como la función CSAI Match de YouTube, para detectar material de abuso sexual infantil. También usamos clasificadores de aprendizaje automático para detectar nuevo material de abuso sexual infantil y enviarlo a nuestros equipos de especialistas para que lo revisen. La detección de material de abuso sexual infantil nuevo contribuye al ecosistema de la seguridad infantil de varias formas, como identificando a las víctimas infantiles que necesitan protección y aportando datos a las tecnologías basadas en la coincidencia de hash para mejorar la detección del material de abuso sexual infantil conocido. Con estos clasificadores, hemos creado la API Content Safety, que ofrecemos a otras entidades para facilitarles la priorización del contenido inadecuado en la revisión humana.
Tanto CSAI Match como la API Content Safety están disponibles para las entidades que cumplan los requisitos y quieran combatir el contenido inadecuado en sus plataformas. Consulta esta página para obtener más información al respecto.
¿Qué hace Google cuando detecta material de abuso sexual infantil en sus plataformas?
El NCMEC es un centro de referencia en Estados Unidos que ofrece información y notificaciones para problemas relacionados con la explotación infantil. Cuando el NCMEC recibe una denuncia, puede reenviarla a organismos públicos de todo el mundo encargados de velar por el cumplimiento de las leyes.
¿Qué es una denuncia "CyberTipline" y qué tipo de datos incluye?
Cuando detectamos material de abuso sexual infantil, presentamos una denuncia al NCMEC. Estas denuncias suelen denominarse CyberTipline o CyberTip. Además, intentamos identificar los casos relacionados con el abuso físico de menores, la producción de material de abuso sexual infantil o el tráfico de menores. Cuando detectamos uno de estos casos, enviamos una denuncia CyberTip complementaria al NCMEC para dar prioridad al asunto. Las denuncias que se envían al NCMEC pueden incluir información que identifica al usuario o al menor víctima del abuso. También pueden incluir contenido infractor u otros datos contextuales útiles.
A continuación puedes consultar algunos ejemplos reales del impacto de las denuncias CyberTip presentadas por Google. No es una lista exhaustiva, pero permite hacerse una idea de la gran variedad de denuncias presentadas.
- Google presentó una denuncia CyberTip sobre una gran cantidad de material de abuso sexual infantil creado en un aula que afectaba a alumnos de educación primaria. Google no había identificado anteriormente parte de ese material de abuso sexual infantil denunciado, que parecía creado por el titular de la cuenta de Google. El NCMEC reenvió la denuncia a las autoridades competentes, lo que permitió identificar y proteger a dos menores de edad que aparecían en las imágenes del material de abuso sexual infantil denunciado.
- Google presentó una denuncia Cybertip sobre la solicitud y la producción de material de abuso sexual infantil por parte del titular de una cuenta. Este había solicitado que se creara una gran cantidad de vídeos de abuso físico de varias decenas de varones menores de edad a cambio de dinero. El NCMEC reenvió la denuncia a las autoridades competentes. El titular de la cuenta fue condenado por producir material de abuso sexual infantil. Además, se identificó y se protegió contra un abuso continuado a varias decenas de niños.
- Google presentó una denuncia CyberTip sobre un único elemento de material de abuso sexual infantil conocido que permitió arrestar al titular de una cuenta. Según las autoridades competentes, esa persona resultó tener mucho más material de abuso sexual infantil y estar implicada de forma directa en el abuso físico de menores a su cargo. Además, facilitaba que otras personas también abusaran de ellos. Gracias al trabajo de Google, el NCMEC y las autoridades competentes, se rescató a tres niños víctimas de abuso sexual.
- Google presentó una denuncia CyberTip sobre material de abuso sexual infantil producido por el titular de una cuenta de Google y solicitado a menores a los que esa persona tenía acceso online. Posteriormente, se arrestó al titular de la cuenta. Las autoridades competentes determinaron que contaba con la confianza que se suele depositar en los profesionales sanitarios, que aprovechaba su posición para abusar de pacientes a su cuidado y que tenía acceso directo a menores online a los que solicitaba la producción de material de abuso sexual infantil.
¿Cómo combate Google el riesgo de que se genere material de abuso sexual infantil en el ámbito de la IA generativa (GenAI)?
El material de abuso sexual infantil generado por IA o las imágenes generadas por ordenador que muestran abuso sexual infantil constituyen una amenaza que en Google nos tomamos muy en serio. Nuestro trabajo para detectar, retirar y denunciar material de abuso sexual infantil siempre ha incluido el contenido infractor en el que aparecen menores de edad, imágenes modificadas de menores identificables participando en actos sexuales explícitos e imágenes generadas por ordenador que resultan imposibles de distinguir de aquellas en las que menores reales tengan dicha conducta.
En Google ponemos especial énfasis en la seguridad infantil al crear nuestros propios modelos y productos de IA generativa. Seguimos los principios para la IA generativa responsable de Google para proteger todos los modelos de Google disponibles públicamente y los servicios basados en estos modelos.
Implementamos distintas medidas de seguridad infantil para nuestros modelos y productos de IA generativa. Esto puede incluir protección frente a la presencia de material de abuso sexual infantil en los datos de entrenamiento subyacentes a nuestros modelos, frente a las peticiones de búsqueda y producción de material de abuso sexual infantil, y frente a las publicaciones infractoras. También llevamos a cabo pruebas sólidas de seguridad infantil en nuestros modelos antes de su lanzamiento público para comprender y mitigar la posibilidad de que se genere material de abuso sexual infantil.
Además, colaboramos con otras empresas y organizaciones en el ecosistema de seguridad infantil (como Technology Coalition y distintas ONGs que trabajan por la infancia) para compartir y entender las prácticas recomendadas a medida que esta tecnología sigue evolucionando.
¿Qué hace Google para disuadir a los usuarios de buscar material de abuso sexual infantil en la Búsqueda?
¿Cómo contribuye Google al ecosistema de seguridad infantil para luchar contra el material de abuso sexual infantil?
El equipo de seguridad infantil de Google crea una tecnología que detecta, denuncia y retira con precisión el material de abuso sexual infantil para proteger a los usuarios e impedir que los menores sufran daños en los productos de Google. Hemos desarrollado el kit de herramientas de seguridad infantil para que el conjunto del ecosistema también tenga acceso a esta potente tecnología y ayude a evitar la proliferación del material de abuso sexual infantil online. Además, Google proporciona su API de coincidencia de hash al NCMEC para ayudarle a dar prioridad y a revisar las denuncias CyberTipline de forma más eficiente, lo que le permite gestionar primero las denuncias relacionadas con niños que necesitan ayuda inmediata.
También compartimos señales de explotación y abuso sexual infantil para permitir la retirada de este tipo de material del ecosistema general. Compartimos millones de hashes de material de abuso sexual infantil con la base de datos de hashes del sector del NCMEC para que otros proveedores también puedan acceder a ellos y utilizarlos. También nos unimos al Project Lantern, un programa que permite a las empresas tecnológicas compartir señales relevantes para combatir el abuso sexual y la explotación en Internet de forma segura y responsable, entendiendo que este abuso puede darse en distintas plataformas y servicios.
Google también es un miembro activo de varias coaliciones, como Technology Coalition, WeProtect Global Alliance e INHOPE, que aglutinan a las empresas y a las ONGs para que desarrollen en equipo soluciones que impidan el intercambio de material de abuso sexual infantil online y la explotación sexual infantil. Google prioriza la participación en estas coaliciones y, en nuestro trabajo con ONGs como el NCMEC y Thorn, compartimos nuestra experiencia, exploramos prácticas recomendadas y nos informamos sobre las últimas amenazas en relación con problemas clave de seguridad infantil.