Qu'entend-on par "contenus d'abus sexuels sur mineurs" ?
Quelle est l'approche de Google pour lutter contre les contenus d'abus sexuels sur mineurs ?
Comment Google identifie-t-il les contenus d'abus sexuels sur mineurs sur ses plates-formes ?
Nous investissons massivement dans la lutte contre les contenus d'abus sexuels sur mineurs en ligne et nous utilisons la technologie pour prévenir et détecter ces contenus, et les supprimer de nos plates-formes. Nous nous basons entre autres sur la détection automatique, les examens manuels, ainsi que les signalements de nos utilisateurs et de tiers (tels que des ONG). Nous utilisons la détection par hachage, y compris la fonctionnalité CSAI Match de YouTube, pour détecter les contenus connus d'abus sexuels sur mineurs. Nous déployons également des classificateurs de machine learning pour détecter les contenus d'abus sexuels sur mineurs n'ayant pas encore été recensés, afin qu'ils soient examinés par nos équipes de spécialistes. La détection des contenus d'abus sexuels sur mineurs qui n'ont pas encore été recensés permet de renforcer l'écosystème de protection des enfants de plusieurs manières, y compris en identifiant les victimes, qui doivent être protégées, et en complétant notre hashset (le jeu de données servant à la détection par hachage) pour améliorer notre capacité à détecter la diffusion des contenus d'abus sexuels sur mineurs déjà recensés. À l'aide de ces classificateurs, Google a créé l'API Content Safety. Cette API est mise à la disposition des entités éligibles pour les aider à hiérarchiser les contenus abusifs en vue de leur examen manuel.
La fonctionnalité CSAI Match et l'API Content Safety sont mises à la disposition des entités éligibles pour les aider à lutter contre les abus sur leurs plates-formes. Cliquez ici pour en savoir plus.
Que fait Google lorsqu'il détecte des contenus d'abus sexuels sur mineurs sur ses plates-formes ?
Le NCMEC est un centre d'informations et de signalement consacré à ce type de contenu. Basé aux États-Unis, il lutte contre l'exploitation des enfants. Quand le NCMEC reçoit un signalement, il peut le transmettre aux organismes chargés de l'application des lois dans le monde entier.
Qu'est-ce qu'un rapport CyberTipline et quel type d'informations contient-il ?
Google signale au NCMEC les contenus d'abus sexuels sur mineurs supposés dont il a connaissance. Ces signalements sont communément appelés "rapports CyberTipline" ou "rapports CyberTip". En outre, nous essayons d'identifier les cas impliquant des abus physiques sur mineur, la production de contenus d'abus sexuels sur mineurs et le trafic d'enfants. Nous envoyons alors un rapport CyberTip supplémentaire au NCMEC afin de l'aider à accorder la priorité nécessaire au problème. Un rapport envoyé au NCMEC peut inclure des informations identifiant l'utilisateur et la victime mineure, et peut inclure le contenu non conforme et/ou d'autres données contextuelles utiles.
Les exemples ci-dessous illustrent l'impact concret des rapports CyberTip transmis par Google. Ils offrent un aperçu de nos différents signalements, mais n'en constituent pas une liste exhaustive.
- Google a envoyé un rapport CyberTip signalant plusieurs contenus d'abus sexuels sur des élèves d'une école primaire dans une salle de classe. Certains des contenus signalés n'avaient encore jamais été identifiés par Google et semblaient avoir été produits par le titulaire du compte Google concerné. Le NCMEC a transmis le rapport aux autorités, ce qui a permis d'identifier et de prendre en charge deux enfants représentés dans des images signalées.
- Google a envoyé un rapport Cybertip signalant la sollicitation et la production de contenus d'abus sexuels sur mineurs par le titulaire d'un compte. Cette personne avait demandé la création contre rémunération de plusieurs vidéos d'abus physiques sur un grand nombre de garçons mineurs. Le NCMEC a transmis le rapport aux autorités. Le titulaire du compte a été condamné pour production de contenus d'abus sexuels sur mineurs. Plusieurs dizaines d'enfants victimes d'abus répétés ont été identifiés et pris en charge.
- Google a envoyé un rapport CyberTip signalant un élément unique de contenus d'abus sexuels sur mineurs déjà recensés, menant à l'arrestation du titulaire de compte. Selon les autorités, cette personne était en possession de nombreux autres contenus similaires, était directement impliquée dans des abus physiques sur des mineurs dont elle avait la charge, et mettait ces mineurs à la disposition d'autres agresseurs. Grâce aux efforts conjoints de Google, du NCMEC et des autorités chargées de l'application de la loi, trois enfants victimes d'abus sexuels ont pu être protégés.
- Google a envoyé un rapport CyberTip signalant la production de contenus d'abus sexuels sur mineurs par un titulaire de compte Google et la sollicitation de contenus par la même personne auprès de mineurs avec lesquels elle pouvait communiquer en ligne. Le titulaire du compte a été arrêté. Les autorités ont déterminé que cette personne avait également utilisé la confiance inspirée par son statut de professionnel du corps médical pour abuser de patients à sa charge et pour accéder directement à des mineurs en ligne, auprès desquels elle avait sollicité la production de contenus d'abus sexuels sur mineurs.
Comment Google lutte-t-il contre les risques liés aux contenus d'abus sexuels sur mineurs dans le domaine de l'IA générative ?
Les images d'abus sexuels sur mineurs générées par IA ou par ordinateur sont des dangers que Google prend très au sérieux. Dans nos efforts pour détecter, supprimer et signaler les contenus d'abus sexuels sur mineurs, nous avons toujours inclus le contenu non conforme impliquant des mineurs réels, les images modifiées d'un mineur identifiable se livrant à un comportement sexuellement explicite, ainsi que les images générées par ordinateur difficilement différenciables d'un contenu où de véritables mineurs se livrent à ce type de comportement.
Lors de la création de ses propres modèles et produits d'IA générative, Google accorde une grande importance à la sécurité des enfants. Nous respectons les principes de Google sur l'utilisation responsable de l'IA générative en protégeant tous les modèles de Google accessibles au public et les services qui s'appuient sur ces modèles.
Nous déployons plusieurs dispositifs de protection de la sécurité des enfants pour nos modèles et produits d'IA générative. Cela peut inclure des protections contre la présence de contenus d'abus sexuels sur mineurs dans les données d'entraînement sous-jacentes de nos modèles, contre la recherche et la production de requêtes de ce type, et contre les résultats qui enfreignent nos règles. Nous menons également des tests rigoureux pour la sécurité des enfants sur nos modèles avant leur lancement public afin de comprendre et de réduire les risques de génération de contenus d'abus sexuels sur mineurs.
Nous collaborons aussi avec d'autres acteurs de l'écosystème pour la sécurité des enfants, dont la Technology Coalition et des ONG œuvrant pour la sécurité des enfants, afin de partager et de comprendre les bonnes pratiques à mesure que cette technologie évolue.
Que fait Google pour empêcher les utilisateurs de rechercher des contenus d'abus sexuels sur mineurs dans la recherche Google ?
Comment Google contribue-t-il à l'écosystème de protection de l'enfance pour mieux lutter contre les contenus d'abus sexuels sur mineurs ?
L'équipe Google dédiée à la sécurité des enfants développe des technologies capables de détecter, signaler et supprimer de façon précise les contenus d'abus sexuels sur mineurs, afin de protéger les utilisateurs et d'empêcher l'exploitation d'enfants sur les produits Google. Nous avons développé le kit pour la sécurité des enfants pour que l'ensemble de l'écosystème ait aussi accès à cette technologie puissante, et pour empêcher la prolifération en ligne de contenus d'abus sexuels sur mineurs. Nous fournissons également l'API Hash Matching de Google au NCMEC. L'API aide le NCMEC à hiérarchiser et examiner plus efficacement les rapports CyberTipline, et lui permet d'identifier les signalements qui concernent des enfants nécessitant une assistance immédiate.
Par ailleurs, nous partageons des signaux d'exploitation et d'abus sexuels sur mineurs pour permettre la suppression des contenus d'abus sexuels sur mineurs dans l'ensemble de l'écosystème. Nous partageons des millions de hachages de contenus d'abus sexuels sur mineurs avec la base de données de hachage du secteur du NCMEC, afin que d'autres fournisseurs puissent également y accéder et les utiliser. Nous avons aussi rejoint le programme Lantern Project, qui permet aux entreprises technologiques de partager des signaux pertinents pour lutter contre l'exploitation et les abus sexuels en ligne de manière sécurisée et responsable, en tenant compte du fait que ces abus peuvent intervenir sur plusieurs plates-formes et services.
Nous participons aussi activement à plusieurs coalitions, dont la Technology Coalition, WeProtect Global Alliance et INHOPE. Ces initiatives rassemblent les entreprises et les ONG afin de mettre au point des solutions pour contrer l'échange de contenus d'abus sexuels sur mineurs sur Internet et lutter contre l'exploitation sexuelle d'enfants. Pour Google, participer à ces coalitions est une priorité. En travaillant avec des ONG telles que le NCMEC et Thorn, nous partageons notre expertise, explorons les bonnes pratiques et nous renseignons sur les dernières menaces concernant les principaux problèmes liés à la sécurité des enfants.