¿Qué es CSAM?
¿Cuál es el enfoque de Google para combatir el CSAM?
¿Cómo identifica Google el CSAM en su plataforma?
Invertimos gran cantidad de recursos para combatir la explotación sexual infantil en línea, y usamos tecnología para disuadir y detectar el CSAM y eliminarlo de nuestras plataformas. Esto incluye la detección automática y la revisión manual, además de las denuncias que envían nuestros usuarios y terceros, como ONGs. Implementamos la detección mediante coincidencia de hash, lo que incluye la herramienta CSAI Match de YouTube, para detectar CSAM ya conocido. También implementamos clasificadores de aprendizaje automático para descubrir CSAM nunca antes detectado que luego analizan nuestros equipos de revisión especializados. El descubrimiento de CSAM nunca antes detectado ayuda al ecosistema de seguridad infantil de varias formas, incluida la identificación de víctimas infantiles que necesitan protección y la contribución con HashSet a fin de aumentar nuestras habilidades para detectar CSAM conocido. Mediante estos clasificadores, Google creó la API de Content Safety y la ofrece a otras entidades para ayudarlas a priorizar el contenido abusivo para la revisión humana.
Tanto CSAI Match como la API de Content Safety están disponibles para entidades que reúnan los requisitos y deseen combatir el abuso en sus plataformas. Obtenga más información aquí.
¿Qué hace Google cuando detecta CSAM en su plataforma?
El NCMEC funciona como una oficina de información y centro de denuncias integral en Estados Unidos para cuestiones relacionadas con la explotación infantil. Una vez que el NCMEC recibe una denuncia, puede reenviarla a organismos de orden público de todo el mundo.
¿Qué es una denuncia CyberTipline y qué tipo de información incluye?
Una vez que Google toma conocimiento de un posible CSAM, presenta una denuncia ante el NCMEC. Estas denuncias se conocen, por lo general, como denuncias CyberTipline o CyberTips. Además, tratamos de identificar casos que involucren abuso físico de un menor, producción de CSAM o tráfico infantil. En esos casos, enviamos una denuncia CyberTip al NCMEC para que se priorice el asunto. Las denuncias que se envían al NCMEC pueden incluir información que identifique al usuario o la víctima menor, así como el contenido infractor y otros datos contextuales útiles.
A continuación, se presentan algunos ejemplos del impacto en el mundo real que tienen las denuncias CyberTip realizadas por Google. Estos proporcionan un panorama general no exhaustivo del enorme rango de denuncias que realizamos.
- Google envió una denuncia CyberTip por varias instancias de CSAM que incluían niños de la escuela primaria en el entorno del salón de clases. Google no había identificado previamente algunas de las instancias de CSAM denunciadas y, al parecer, las había producido el titular de la Cuenta de Google. El NCMEC reenvió la denuncia a autoridades de orden público, lo que contribuyó a identificar y proteger a dos menores que aparecían en las imágenes de CSAM denunciadas.
- Google envió una denuncia CyberTip debido a la solicitud y producción de CSAM por parte de un titular de una cuenta, que solicitó la realización de varios videos donde se mostraba el abuso físico de decenas de varones menores a cambio de dinero. El NCMEC reenvió la denuncia a autoridades de orden público. El titular de la cuenta fue condenado por la producción de CSAM. Además, se identificaron varias decenas de niños, que se protegieron del abuso continuo.
- Google envió una denuncia CyberTip por una única instancia de CSAM conocido que derivó en la detención del titular de la cuenta. De acuerdo con autoridades de orden público, el titular poseía mucho más CSAM y participaba directamente en el abuso físico de menores que estaban bajo su cuidado, además de poner a esos menores a disposición para que otras personas abusaran de ellos. Debido a las iniciativas de Google, el NCMEC y autoridades de orden público, se rescataron tres niños que sufrían de abuso sexual.
- Google envió una denuncia CyberTip por CSAM que producía el titular de una Cuenta de Google y que involucraba a menores a los que el titular podía contactar en línea. El titular de la cuenta fue detenido y las autoridades de orden público determinaron que, al ser un profesional de la salud, tenía una posición de confianza y utilizaba su puesto para abusar de pacientes que estaban bajo su cuidado. Además, tenía acceso directo a menores en línea, a los que les solicitaba la producción de CSAM.
¿Cómo combate Google el riesgo de CSAM en el espacio de la IA generativa (GenAI)?
Google se toma muy en serio las imágenes de CSAM generadas por computadora que muestran abuso sexual infantil. Nuestro trabajo para detectar, eliminar y denunciar CSAM siempre incluye contenido infractor que involucra a menores reales, imágenes modificadas de un menor identificable que participa en conductas sexuales explícitas e imágenes generadas por computadora que no se distinguen de un menor real que participa en tales conductas.
Google hace mucho hincapié en la seguridad infantil a la hora de crear sus propios modelos y productos de GenAI. Seguimos los principios de Responsabilidad de la IA Generativa de Google para proteger todos los modelos disponibles públicamente y los servicios basados en estos modelos.
Implementamos una variedad de protecciones de seguridad infantil para nuestros modelos y productos de IA generativa. Esto puede incluir protecciones contra la presencia de CSAM en los datos de entrenamiento subyacentes de nuestros modelos, contra la búsqueda de CSAM y la generación de instrucciones, y contra los resultados infractores. Antes del lanzamiento público, también realizamos pruebas sólidas de seguridad infantil para comprender y mitigar la posibilidad de que se genere CSAM.
También trabajamos con otros miembros del ecosistema de seguridad infantil, como la Technology Coalition y distintas ONGs para la seguridad infantil, para compartir y comprender las prácticas recomendadas a medida que esta tecnología sigue evolucionando.
¿Qué hace Google para disuadir a usuarios de buscar CSAM en la Búsqueda?
¿Cómo contribuye Google al ecosistema de seguridad infantil para combatir el CSAM?
El equipo de seguridad infantil de Google crea tecnologías que detectan con precisión el CSAM, lo denuncian y eliminan para proteger a nuestros usuarios y evitar que se dañe a los menores en los productos de Google. Desarrollamos el kit de herramientas de Seguridad Infantil para garantizar que el ecosistema más amplio también tenga acceso a esta potente tecnología y ayudar a prevenir la proliferación en línea de material de abuso sexual infantil. Del mismo modo, le proporcionamos la API de Hash Matching de Google al NCMEC para ayudarlo a priorizar y revisar las denuncias CyberTipline con más eficiencia, de forma tal que centre el objetivo en las denuncias que implican niños que necesitan ayuda inmediata.
También compartimos indicadores de explotación y abuso sexual infantil para permitir la eliminación de CSAM del ecosistema más amplio. Compartimos millones de hashes de CSAM con la base de datos de hash de la industria del NCMEC para que otros proveedores también puedan acceder a ellos y utilizarlos. Además, firmamos el Lantern Project, un programa que permite a las empresas de tecnología compartir señales relevantes para combatir la explotación y el abuso sexual en línea de forma segura y responsable, con el entendimiento de que este abuso puede presentarse en varias plataformas y servicios.
También somos un miembro activo de varias coaliciones, como INHOPE, la Technology Coalition y WeProtect Global Alliance, que reúnen empresas y ONG para desarrollar soluciones que interrumpan el intercambio de CSAM en línea y eviten la explotación sexual infantil. Google prioriza la participación en estas coaliciones. Además, cuando trabajamos con ONG, como el NCMEC y Thorn, compartimos nuestra experiencia, exploramos prácticas recomendadas y obtenemos más información respecto a las amenazas nuevas sobre problemas clave relacionados con la seguridad infantil.