Preguntas frecuentes sobre las iniciativas de Google para combatir el material de abuso sexual infantil en línea

¿Qué es CSAM?

CSAM significa material de abuso sexual infantil. Este término abarca cualquier representación visual que muestre la participación de un menor en conductas sexuales explícitas, incluidos, sin limitaciones, fotos, imágenes generadas por computadora y videos. Reconocemos que el CSAM no es lo mismo que las imágenes de desnudos infantiles, y nuestras políticas y sistemas están diseñados específicamente para reconocer y distinguir imágenes benignas, como un niño jugando en la bañera o el patio, que no son de naturaleza sexual ni representan CSAM, de imágenes que implican abuso sexual de un menor o la exhibición lasciva de genitales y zonas íntimas que incumplen las leyes globales. Además, existen otros tipos de imágenes obscenas o de explotación infantil que incluyen o representan a niños, como representaciones en dibujos animados de abuso sexual infantil o intentos de representaciones humorísticas de explotación sexual infantil. Estas imágenes también pueden infringir las leyes globales.

¿Cuál es el enfoque de Google para combatir el CSAM?

Google se compromete a combatir el CSAM en línea y evitar que nuestras plataformas se usen para crear, almacenar o distribuir ese material. Invertimos una gran cantidad de recursos (tecnología, personas y tiempo) para detectar, disuadir, eliminar y denunciar contenido y conductas de explotación sexual infantil. Si desea obtener más información sobre nuestras iniciativas para proteger a los niños y las familias, consulte el Centro de Seguridad de Google, los Lineamientos de la Comunidad de YouTube, nuestro Sitio para la Protección de Menores y nuestro blog sobre cómo detectamos, eliminamos y denunciamos el CSAM.

¿Cómo identifica Google el CSAM en su plataforma?

Invertimos gran cantidad de recursos para combatir la explotación sexual infantil en línea, y usamos tecnología para disuadir y detectar el CSAM y eliminarlo de nuestras plataformas. Esto incluye la detección automática y la revisión manual, además de las denuncias que envían nuestros usuarios y terceros, como ONGs. Implementamos la detección mediante coincidencia de hash, lo que incluye la herramienta CSAI Match de YouTube, para detectar CSAM ya conocido. También implementamos clasificadores de aprendizaje automático para descubrir CSAM nunca antes detectado que luego analizan nuestros equipos de revisión especializados. El descubrimiento de CSAM nunca antes detectado ayuda al ecosistema de seguridad infantil de varias formas, incluida la identificación de víctimas infantiles que necesitan protección y la contribución con HashSet a fin de aumentar nuestras habilidades para detectar CSAM conocido. Mediante estos clasificadores, Google creó la API de Content Safety y la ofrece a otras entidades para ayudarlas a priorizar el contenido abusivo para la revisión humana. 


Tanto CSAI Match como la API de Content Safety están disponibles para entidades que reúnan los requisitos y deseen combatir el abuso en sus plataformas. Obtenga más información aquí.

¿Qué hace Google cuando detecta CSAM en su plataforma?

Cuando detectamos CSAM en nuestras plataformas, lo eliminamos, presentamos una denuncia "CyberTipline" ante el NCMEC y, según la naturaleza y la gravedad de la infracción, es posible que enviemos una advertencia, limitemos el acceso de una cuenta a ciertos productos o servicios de Google, o inhabilitemos la Cuenta de Google. También podemos hacer una revisión más profunda de la Cuenta de Google para identificar más CSAM o asegurarnos de que estamos teniendo en cuenta el contexto relevante para estar seguros de que tomamos las acciones de aplicación adecuadas y proporcionadas en relación con el material identificado en la Cuenta de Google.

 

El NCMEC funciona como una oficina de información y centro de denuncias integral en Estados Unidos para cuestiones relacionadas con la explotación infantil. Una vez que el NCMEC recibe una denuncia, puede reenviarla a organismos de orden público de todo el mundo.

¿Qué es una denuncia CyberTipline y qué tipo de información incluye?

Una vez que Google toma conocimiento de un posible CSAM, presenta una denuncia ante el NCMEC. Estas denuncias se conocen, por lo general, como denuncias CyberTipline o CyberTips. Además, tratamos de identificar casos que involucren abuso físico de un menor, producción de CSAM o tráfico infantil. En esos casos, enviamos una denuncia CyberTip al NCMEC para que se priorice el asunto. Las denuncias que se envían al NCMEC pueden incluir información que identifique al usuario o la víctima menor, así como el contenido infractor y otros datos contextuales útiles.

A continuación, se presentan algunos ejemplos del impacto en el mundo real que tienen las denuncias CyberTip realizadas por Google. Estos proporcionan un panorama general no exhaustivo del enorme rango de denuncias que realizamos.  

  • Google envió una denuncia CyberTip por varias instancias de CSAM que incluían niños de la escuela primaria en el entorno del salón de clases. Google no había identificado previamente algunas de las instancias de CSAM denunciadas y, al parecer, las había producido el titular de la Cuenta de Google. El NCMEC reenvió la denuncia a autoridades de orden público, lo que contribuyó a identificar y proteger a dos menores que aparecían en las imágenes de CSAM denunciadas.  
  • Google envió una denuncia CyberTip debido a la solicitud y producción de CSAM por parte de un titular de una cuenta, que solicitó la realización de varios videos donde se mostraba el abuso físico de decenas de varones menores a cambio de dinero. El NCMEC reenvió la denuncia a autoridades de orden público. El titular de la cuenta fue condenado por la producción de CSAM. Además, se identificaron varias decenas de niños, que se protegieron del abuso continuo.
  • Google envió una denuncia CyberTip por una única instancia de CSAM conocido que derivó en la detención del titular de la cuenta. De acuerdo con autoridades de orden público, el titular poseía mucho más CSAM y participaba directamente en el abuso físico de menores que estaban bajo su cuidado, además de poner a esos menores a disposición para que otras personas abusaran de ellos. Debido a las iniciativas de Google, el NCMEC y autoridades de orden público, se rescataron tres niños que sufrían de abuso sexual.
  • Google envió una denuncia CyberTip por CSAM que producía el titular de una Cuenta de Google y que involucraba a menores a los que el titular podía contactar en línea. El titular de la cuenta fue detenido y las autoridades de orden público determinaron que, al ser un profesional de la salud, tenía una posición de confianza y utilizaba su puesto para abusar de pacientes que estaban bajo su cuidado. Además, tenía acceso directo a menores en línea, a los que les solicitaba la producción de CSAM.

¿Cómo combate Google el riesgo de CSAM en el espacio de la IA generativa (GenAI)?

Google se toma muy en serio las imágenes de CSAM generadas por computadora que muestran abuso sexual infantil. Nuestro trabajo para detectar, eliminar y denunciar CSAM siempre incluye contenido infractor que involucra a menores reales, imágenes modificadas de un menor identificable que participa en conductas sexuales explícitas e imágenes generadas por computadora que no se distinguen de un menor real que participa en tales conductas.

Google hace mucho hincapié en la seguridad infantil a la hora de crear sus propios modelos y productos de GenAI. Seguimos los principios de Responsabilidad de la IA Generativa de Google para proteger todos los modelos disponibles públicamente y los servicios basados en estos modelos.

Implementamos una variedad de protecciones de seguridad infantil para nuestros modelos y productos de IA generativa. Esto puede incluir protecciones contra la presencia de CSAM en los datos de entrenamiento subyacentes de nuestros modelos, contra la búsqueda de CSAM y la generación de instrucciones, y contra los resultados infractores. Antes del lanzamiento público, también realizamos pruebas sólidas de seguridad infantil para comprender y mitigar la posibilidad de que se genere CSAM.

También trabajamos con otros miembros del ecosistema de seguridad infantil, como la Technology Coalition y distintas ONGs para la seguridad infantil, para compartir y comprender las prácticas recomendadas a medida que esta tecnología sigue evolucionando.

¿Qué hace Google para disuadir a usuarios de buscar CSAM en la Búsqueda?

Google implementa principios de seguridad por diseño para disuadir a los usuarios de buscar CSAM en la Búsqueda. Como parte de nuestra política, bloqueamos resultados de la búsqueda que dirijan a material de abuso sexual infantil que parezca victimizar sexualmente, poner en peligro o explotar de alguna otra forma a menores. Trabajamos de forma continua en la actualización de nuestros algoritmos para combatir estas amenazas en constante evolución. Aplicamos medidas de protección adicionales en búsquedas que, a nuestro entender, procuran obtener CSAM. Filtramos los resultados con contenido sexual explícito si parece que se busca CSAM. Para las búsquedas de contenido adulto explícito, la Búsqueda no muestra imágenes que incluyan menores, de modo que no se asocien con el contenido sexual. Además de quitar el contenido de CSAM del índice de la Búsqueda cuando se lo identifica, también descendemos de nivel todo el contenido de los sitios que tengan una gran proporción de contenido de CSAM. En muchos países, los usuarios que realizan búsquedas claramente relacionadas con CSAM reciben una advertencia importante donde se indica que las imágenes de abuso sexual infantil son ilegales, con información sobre cómo denunciar este contenido ante organizaciones de confianza. Descubrimos que, cuando se muestran las advertencias, es menos probable que los usuarios sigan buscando este material.

¿Cómo contribuye Google al ecosistema de seguridad infantil para combatir el CSAM?

El equipo de seguridad infantil de Google crea tecnologías que detectan con precisión el CSAM, lo denuncian y eliminan para proteger a nuestros usuarios y evitar que se dañe a los menores en los productos de Google. Desarrollamos el kit de herramientas de Seguridad Infantil para garantizar que el ecosistema más amplio también tenga acceso a esta potente tecnología y ayudar a prevenir la proliferación en línea de material de abuso sexual infantil. Del mismo modo, le proporcionamos la API de Hash Matching de Google al NCMEC para ayudarlo a priorizar y revisar las denuncias CyberTipline con más eficiencia, de forma tal que centre el objetivo en las denuncias que implican niños que necesitan ayuda inmediata. 

También compartimos indicadores de explotación y abuso sexual infantil para permitir la eliminación de CSAM del ecosistema más amplio. Compartimos millones de hashes de CSAM con la base de datos de hash de la industria del NCMEC para que otros proveedores también puedan acceder a ellos y utilizarlos. Además, firmamos el Lantern Project, un programa que permite a las empresas de tecnología compartir señales relevantes para combatir la explotación y el abuso sexual en línea de forma segura y responsable, con el entendimiento de que este abuso puede presentarse en varias plataformas y servicios.

También somos un miembro activo de varias coaliciones, como INHOPE, la Technology Coalition y WeProtect Global Alliance, que reúnen empresas y ONG para desarrollar soluciones que interrumpan el intercambio de CSAM en línea y eviten la explotación sexual infantil. Google prioriza la participación en estas coaliciones. Además, cuando trabajamos con ONG, como el NCMEC y Thorn, compartimos nuestra experiencia, exploramos prácticas recomendadas y obtenemos más información respecto a las amenazas nuevas sobre problemas clave relacionados con la seguridad infantil.

¿De qué manera una agencia gubernamental puede enviarle a Google una solicitud legal relacionada con un CyberTip?

Una vez que el NCMEC recibe una denuncia, puede reenviarla a organismos de orden público de todo el mundo. Luego, las autoridades de orden público pueden presentar un proceso legal ante Google para obtener más información (Sistema de solicitudes para autoridades, LERS). Para facilitar estas solicitudes, Google proporciona un sistema en línea que les permite a las agencias gubernamentales verificadas enviar de forma segura solicitudes para obtener más información. Luego, las agencias pueden ver en este sistema el estado de las solicitudes enviadas y, en última instancia, descargar la respuesta de Google a su solicitud. Para obtener más información sobre el LERS o configurar una cuenta en el LERS, visite lers.google.com. Para obtener más información, consulte nuestras políticas sobre cómo administra Google las solicitudes gubernamentales relacionadas con la información de usuarios.

 ¿Cómo denuncio contenido que podría ser CSAM?

Si encuentra un vínculo, sitio web o cualquier contenido que sea CSAM, puede denunciarlo ante la policía, el NCMEC o una organización adecuada en su localidad. Si ve o percibe contenido o comportamiento inapropiado hacia niños en los productos de Google, hay muchas formas de denunciarlo ante nosotros, como informar delitos que impliquen situaciones de riesgo para menores (p. ej., ciberacoso infantil, sextorsión y otras formas de explotación sexual infantil) que ocurran en productos de Google. Puede ayudar a evitar que otras personas se comuniquen con sus hijos en los productos de Google y filtrar el contenido que ven sus hijos; para ello, administre la configuración de sus Cuentas de Google.

¿Qué equipos revisan las denuncias de CSAM?

La revisión manual es una parte fundamental de nuestro trabajo constante para combatir el CSAM. Los miembros de nuestro equipo aportan su extensa experiencia a este trabajo, ya que tienen formación en derecho, seguridad infantil y defensa de derechos infantiles, trabajo social e investigaciones cibernéticas, entre otras disciplinas. Están capacitados de manera específica en el alcance de nuestra política y para distinguir legalmente qué constituye material de abuso sexual infantil. Los equipos de revisores tienen una capacitación especializada y reciben apoyo psicológico. Para obtener más información sobre cómo Google aborda la moderación de contenido, lo que incluye cómo contribuimos al bienestar de los revisores, haga clic aquí.

¿Qué período abarca este informe?

Las métricas que se presentan aquí representan los datos recopilados desde las 12:00 a.m. (PST) del 1 de enero hasta las 11:59 p.m. (PDT) del 30 de junio y desde las 12:00 a.m. (PDT) del 1 de julio hasta las 11:59 p.m. (PST) del 31 de diciembre, a menos que se especifiquen períodos diferentes.
Menú principal
17339154045834579596
true
Buscar en el Centro de asistencia
true
true
true
false
false