Preguntas frecuentes sobre las medidas de Google para combatir la publicación online de material de abuso sexual infantil

¿Qué es el CSAM?

Son las siglas en inglés para referirse al material de abuso sexual infantil. Este material se compone de cualquier representación visual, entre las que se incluyen fotos, vídeos e imágenes generadas por ordenador, que implique el uso de una persona menor de edad en actos sexuales explícitos. Somos conscientes de que el material de abuso sexual infantil no es lo mismo que los desnudos infantiles, y nuestras políticas y sistemas se han diseñado específicamente para identificar y distinguir entre imágenes inofensivas (por ejemplo, las de un niño jugando en una bañera o en un jardín no tienen carácter sexual ni son material de abuso sexual infantil) e imágenes que implican abuso sexual infantil o representaciones lascivas de los genitales o zonas íntimas que infringen la legislación internacional. Además, existen otros tipos de imágenes obscenas o de explotación que incluyen o representan a niños, como los dibujos animados en los que aparezca abuso sexual infantil o los intentos de representaciones humorísticas de explotación sexual infantil. Estas imágenes también pueden constituir una infracción de las leyes internacionales.

¿Cómo combate Google el material de abuso sexual infantil?

En Google nos comprometemos a luchar contra el material de abuso sexual infantil online y evitar que nuestras plataformas se utilicen para crearlo, almacenarlo o difundirlo. Dedicamos una gran cantidad de recursos (tecnología, profesionales y tiempo) a detectar, disuadir, retirar y denunciar conductas y contenidos relacionados con la explotación sexual infantil. Para obtener más información sobre las medidas que tomamos para proteger a menores y familias, consulta el Centro de Seguridad de Google, las Normas de la Comunidad de YouTube, nuestro sitio sobre protección infantil y nuestro blog sobre cómo detectamos, retiramos y denunciamos el material de abuso sexual infantil.

¿Cómo detecta Google el material de abuso sexual infantil en sus plataformas?

Invertimos muchos recursos en luchar contra la explotación sexual infantil online y usamos tecnología que nos permite disuadir, detectar y retirar material de abuso sexual infantil de nuestras plataformas. Esto incluye la detección automática y la revisión humana, además de las denuncias que presentan nuestros usuarios y terceros (como las ONGs). Utilizamos tecnologías basadas en la coincidencia de hash, como la función CSAI Match de YouTube, para detectar material de abuso sexual infantil. También usamos clasificadores de aprendizaje automático para detectar nuevo material de abuso sexual infantil y enviarlo a nuestros equipos de especialistas para que lo revisen. La detección de material de abuso sexual infantil nuevo contribuye al ecosistema de la seguridad infantil de varias formas, como identificando a las víctimas infantiles que necesitan protección y aportando datos a las tecnologías basadas en la coincidencia de hash para mejorar la detección del material de abuso sexual infantil conocido. Con estos clasificadores, hemos creado la API Content Safety, que ofrecemos a otras entidades para facilitarles la priorización del contenido inadecuado en la revisión humana. 


Tanto CSAI Match como la API Content Safety están disponibles para las entidades que cumplan los requisitos y quieran combatir el contenido inadecuado en sus plataformas. Consulta esta página para obtener más información al respecto.

¿Qué hace Google cuando detecta material de abuso sexual infantil en sus plataformas?

Cuando detectamos material de abuso sexual infantil en nuestras plataformas, lo retiramos, enviamos una denuncia "CyberTipline" al NCMEC y, según la naturaleza y la gravedad de la infracción, podemos emitir una advertencia, limitar el acceso de una cuenta a determinados productos o servicios de Google o inhabilitar la cuenta de Google. Además, podemos revisar más a fondo la cuenta en cuestión para identificar más material de abuso sexual infantil o para asegurarnos de que estamos teniendo en cuenta el contexto pertinente para tomar las medidas proporcionadas y adecuadas por incumplimiento de las políticas en relación con el material identificado en la cuenta de Google.

 

El NCMEC es un centro de referencia en Estados Unidos que ofrece información y notificaciones para problemas relacionados con la explotación infantil. Cuando el NCMEC recibe una denuncia, puede reenviarla a organismos públicos de todo el mundo encargados de velar por el cumplimiento de las leyes.

¿Qué es una denuncia "CyberTipline" y qué tipo de datos incluye?

Cuando detectamos material de abuso sexual infantil, presentamos una denuncia al NCMEC. Estas denuncias suelen denominarse CyberTipline o CyberTip. Además, intentamos identificar los casos relacionados con el abuso físico de menores, la producción de material de abuso sexual infantil o el tráfico de menores. Cuando detectamos uno de estos casos, enviamos una denuncia CyberTip complementaria al NCMEC para dar prioridad al asunto. Las denuncias que se envían al NCMEC pueden incluir información que identifica al usuario o al menor víctima del abuso. También pueden incluir contenido infractor u otros datos contextuales útiles.

A continuación puedes consultar algunos ejemplos reales del impacto de las denuncias CyberTip presentadas por Google. No es una lista exhaustiva, pero permite hacerse una idea de la gran variedad de denuncias presentadas.  

  • Google presentó una denuncia CyberTip sobre una gran cantidad de material de abuso sexual infantil creado en un aula que afectaba a alumnos de educación primaria. Google no había identificado anteriormente parte de ese material de abuso sexual infantil denunciado, que parecía creado por el titular de la cuenta de Google. El NCMEC reenvió la denuncia a las autoridades competentes, lo que permitió identificar y proteger a dos menores de edad que aparecían en las imágenes del material de abuso sexual infantil denunciado.  
  • Google presentó una denuncia Cybertip sobre la solicitud y la producción de material de abuso sexual infantil por parte del titular de una cuenta. Este había solicitado que se creara una gran cantidad de vídeos de abuso físico de varias decenas de varones menores de edad a cambio de dinero. El NCMEC reenvió la denuncia a las autoridades competentes. El titular de la cuenta fue condenado por producir material de abuso sexual infantil. Además, se identificó y se protegió contra un abuso continuado a varias decenas de niños.
  • Google presentó una denuncia CyberTip sobre un único elemento de material de abuso sexual infantil conocido que permitió arrestar al titular de una cuenta. Según las autoridades competentes, esa persona resultó tener mucho más material de abuso sexual infantil y estar implicada de forma directa en el abuso físico de menores a su cargo. Además, facilitaba que otras personas también abusaran de ellos. Gracias al trabajo de Google, el NCMEC y las autoridades competentes, se rescató a tres niños víctimas de abuso sexual.
  • Google presentó una denuncia CyberTip sobre material de abuso sexual infantil producido por el titular de una cuenta de Google y solicitado a menores a los que esa persona tenía acceso online. Posteriormente, se arrestó al titular de la cuenta. Las autoridades competentes determinaron que contaba con la confianza que se suele depositar en los profesionales sanitarios, que aprovechaba su posición para abusar de pacientes a su cuidado y que tenía acceso directo a menores online a los que solicitaba la producción de material de abuso sexual infantil.

¿Cómo combate Google el riesgo de que se genere material de abuso sexual infantil en el ámbito de la IA generativa (GenAI)?

El material de abuso sexual infantil generado por IA o las imágenes generadas por ordenador que muestran abuso sexual infantil constituyen una amenaza que en Google nos tomamos muy en serio. Nuestro trabajo para detectar, retirar y denunciar material de abuso sexual infantil siempre ha incluido el contenido infractor en el que aparecen menores de edad, imágenes modificadas de menores identificables participando en actos sexuales explícitos e imágenes generadas por ordenador que resultan imposibles de distinguir de aquellas en las que menores reales tengan dicha conducta.

En Google ponemos especial énfasis en la seguridad infantil al crear nuestros propios modelos y productos de IA generativa. Seguimos los principios para la IA generativa responsable de Google para proteger todos los modelos de Google disponibles públicamente y los servicios basados en estos modelos.

Implementamos distintas medidas de seguridad infantil para nuestros modelos y productos de IA generativa. Esto puede incluir protección frente a la presencia de material de abuso sexual infantil en los datos de entrenamiento subyacentes a nuestros modelos, frente a las peticiones de búsqueda y producción de material de abuso sexual infantil, y frente a las publicaciones infractoras. También llevamos a cabo pruebas sólidas de seguridad infantil en nuestros modelos antes de su lanzamiento público para comprender y mitigar la posibilidad de que se genere material de abuso sexual infantil.

Además, colaboramos con otras empresas y organizaciones en el ecosistema de seguridad infantil (como Technology Coalition y distintas ONGs que trabajan por la infancia) para compartir y entender las prácticas recomendadas a medida que esta tecnología sigue evolucionando.

¿Qué hace Google para disuadir a los usuarios de buscar material de abuso sexual infantil en la Búsqueda?

En Google aplicamos principios de seguridad por diseño para disuadir a los usuarios de buscar material de abuso sexual infantil en la Búsqueda. Conforme a nuestras políticas, bloqueamos resultados de búsqueda que incluyan material de abuso sexual que parezca victimizar sexualmente, poner en peligro o explotar a menores. Actualizamos constantemente nuestros algoritmos para luchar contra estas cambiantes amenazas. Aplicamos medidas de protección adicionales cuando creemos que las búsquedas pueden ser de material de abuso sexual infantil. Filtramos los resultados de contenido sexual explícito si parece que se busca material de abuso sexual infantil. En el caso de las búsquedas de contenido explícito para adultos, la Búsqueda no muestra imágenes con niños para que no se les asocie con contenido sexual. Cuando se identifica contenido de abuso sexual infantil, además de retirarlo del índice de la Búsqueda, también descendemos de nivel todo el contenido de los sitios que tienen un alto porcentaje de material de abuso sexual infantil. En muchos países, se muestra a los usuarios que hacen consultas claramente relacionadas con material de abuso sexual infantil una advertencia bien visible en la que se indica que las imágenes de abuso sexual infantil son ilegales y se incluye información sobre cómo denunciar ese contenido ante organismos de confianza. Hemos constatado que, cuando se muestran esas advertencias, los usuarios son menos propensos a seguir buscando ese material.

¿Cómo contribuye Google al ecosistema de seguridad infantil para luchar contra el material de abuso sexual infantil?

El equipo de seguridad infantil de Google crea una tecnología que detecta, denuncia y retira con precisión el material de abuso sexual infantil para proteger a los usuarios e impedir que los menores sufran daños en los productos de Google. Hemos desarrollado el kit de herramientas de seguridad infantil para que el conjunto del ecosistema también tenga acceso a esta potente tecnología y ayude a evitar la proliferación del material de abuso sexual infantil online. Además, Google proporciona su API de coincidencia de hash al NCMEC para ayudarle a dar prioridad y a revisar las denuncias CyberTipline de forma más eficiente, lo que le permite gestionar primero las denuncias relacionadas con niños que necesitan ayuda inmediata. 

También compartimos señales de explotación y abuso sexual infantil para permitir la retirada de este tipo de material del ecosistema general. Compartimos millones de hashes de material de abuso sexual infantil con la base de datos de hashes del sector del NCMEC para que otros proveedores también puedan acceder a ellos y utilizarlos. También nos unimos al Project Lantern, un programa que permite a las empresas tecnológicas compartir señales relevantes para combatir el abuso sexual y la explotación en Internet de forma segura y responsable, entendiendo que este abuso puede darse en distintas plataformas y servicios.

Google también es un miembro activo de varias coaliciones, como Technology Coalition, WeProtect Global Alliance e INHOPE, que aglutinan a las empresas y a las ONGs para que desarrollen en equipo soluciones que impidan el intercambio de material de abuso sexual infantil online y la explotación sexual infantil. Google prioriza la participación en estas coaliciones y, en nuestro trabajo con ONGs como el NCMEC y Thorn, compartimos nuestra experiencia, exploramos prácticas recomendadas y nos informamos sobre las últimas amenazas en relación con problemas clave de seguridad infantil.

¿Cómo pueden los organismos públicos enviar a Google solicitudes legales asociadas a una CyberTip?

Cuando el NCMEC recibe una denuncia, puede reenviarla a organismos públicos de todo el mundo encargados de velar por el cumplimiento de las leyes. De este modo, esos organismos pueden enviar un proceso legal a Google para solicitar más información (Sistema de Solicitud para Autoridades - LERS). Para facilitar este tipo de solicitudes, Google cuenta con un sistema online que permite a los organismos públicos verificados enviar solicitudes de forma segura para obtener más información. Estos organismos podrán ver el estado de las solicitudes enviadas a través de este sistema online y, en última instancia, descargar las respuestas de Google correspondientes. Para obtener más información sobre el LERS o para configurar una cuenta del LERS, visita lers.google.com. Si quieres obtener más información, consulta nuestras políticas sobre cómo gestiona Google las solicitudes gubernamentales de información sobre usuarios.

 ¿Cómo puedo denunciar presunto material de abuso sexual infantil?

Si encuentras enlaces, sitios web o contenido que esté relacionado con material de abuso sexual infantil, puedes denunciarlo a la policía, al NCMEC o a la organización correspondiente de tu región. Si detectas comportamientos o contenido inapropiados asociados a menores en los productos de Google, puedes comunicárnoslo de muchas formas, como denunciando delitos que suponen situaciones de peligro para menores (por ejemplo, acoso a menores de edad, extorsión sexual u otras formas de explotación sexual infantil). Puedes ayudar a impedir que otras personas se pongan en contacto con tu hijo/a en los productos de Google y filtrar el contenido que ve tu hijo/a gestionando la configuración de su cuenta de Google.

¿Qué equipos revisan los informes de imágenes de abuso sexual infantil?

La revisión humana es una parte fundamental de nuestro esfuerzo continuo por combatir la publicación de material de abuso sexual infantil. Los miembros de nuestro equipo aportan una gran experiencia a este trabajo y cuentan con formación en derecho, protección y defensa de la infancia, trabajo social y ciberinvestigaciones, entre otras disciplinas. Están especialmente formados tanto en el ámbito de nuestra política como en lo que legalmente constituye material de abuso sexual infantil. Los equipos de revisores tienen una formación específica y reciben apoyo emocional. Para obtener más información sobre las medidas que toma Google con respecto a la moderación de contenido, incluida la forma en que velamos por el bienestar emocional de los revisores, consulta esta página.

¿Qué periodo abarca este informe?

Las métricas que aparecen aquí representan datos recogidos desde las 12:00 (UTC -8:00) del 1 de enero hasta las 23:59 (UTC -7:00) del 30 de junio y desde las 00:00 (UTC -7:00) del 1 de julio hasta las 23:59 (UTC -8:00) del 31 de diciembre, a menos que se especifique lo contrario.
Menú principal
1422068755824976053
true
Buscar en el Centro de ayuda
true
true
true
false
false