Questions fréquentes sur les mesures prises par Google pour lutter contre les contenus d'abus sexuels sur mineurs en ligne

Qu'entend-on par "contenus d'abus sexuels sur mineurs" ?

Les contenus d'abus sexuels sur mineurs recouvrent l'ensemble des visuels, y compris, mais sans s'y limiter, les photos, vidéos et images générées par ordinateur, représentant des mineurs impliqués dans des actes à caractère sexuel explicite. Nous distinguons les contenus d'abus sexuels sur mineurs de ceux comportant de la nudité d'enfants. Nos règles et nos systèmes sont spécifiquement conçus pour reconnaître et faire la différence entre des images anodines, sans caractère sexuel, comme celles d'enfants jouant dans leur bain ou dans leur jardin, des images d'abus sexuels sur des mineurs ou d'exhibition lascive des organes génitaux et des zones intimes, qui enfreignent les lois internationales. Il existe également d'autres types d'images obscènes qui incluent, représentent ou exploitent des enfants, comme les dessins animés mettant en scène des abus sexuels sur mineurs ou les tentatives de représentations humoristiques de l'exploitation sexuelle des enfants. Ces images peuvent aussi enfreindre les lois internationales.

Quelle est l'approche de Google pour lutter contre les contenus d'abus sexuels sur mineurs ?

Google s'engage à lutter contre les contenus d'abus sexuels sur mineurs en ligne et à empêcher que ses plates-formes soient utilisées pour créer, stocker ou distribuer ces contenus. Nous consacrons des ressources importantes (en technologie, en personnel et en temps) à la détection, à la prévention, à la suppression et au signalement des contenus et comportements ayant trait à l'exploitation sexuelle des enfants. Pour en savoir plus sur nos efforts pour protéger les enfants et les familles, consultez le Centre de sécurité Google, le Règlement de la communauté YouTube, notre site Protecting Children ou notre blog où nous expliquons comment nous détectons, supprimons et signalons les contenus d'abus sexuels sur mineurs.

Comment Google identifie-t-il les contenus d'abus sexuels sur mineurs sur ses plates-formes ?

Nous investissons massivement dans la lutte contre les contenus d'abus sexuels sur mineurs en ligne et nous utilisons la technologie pour prévenir et détecter ces contenus, et les supprimer de nos plates-formes. Nous nous basons entre autres sur la détection automatique, les examens manuels, ainsi que les signalements de nos utilisateurs et de tiers (tels que des ONG). Nous utilisons la détection par hachage, y compris la fonctionnalité CSAI Match de YouTube, pour détecter les contenus connus d'abus sexuels sur mineurs. Nous déployons également des classificateurs de machine learning pour détecter les contenus d'abus sexuels sur mineurs n'ayant pas encore été recensés, afin qu'ils soient examinés par nos équipes de spécialistes. La détection des contenus d'abus sexuels sur mineurs qui n'ont pas encore été recensés permet de renforcer l'écosystème de protection des enfants de plusieurs manières, y compris en identifiant les victimes, qui doivent être protégées, et en complétant notre hashset (le jeu de données servant à la détection par hachage) pour améliorer notre capacité à détecter la diffusion des contenus d'abus sexuels sur mineurs déjà recensés. À l'aide de ces classificateurs, Google a créé l'API Content Safety. Cette API est mise à la disposition des entités éligibles pour les aider à hiérarchiser les contenus abusifs en vue de leur examen manuel. 


La fonctionnalité CSAI Match et l'API Content Safety sont mises à la disposition des entités éligibles pour les aider à lutter contre les abus sur leurs plates-formes. Cliquez ici pour en savoir plus.

Que fait Google lorsqu'il détecte des contenus d'abus sexuels sur mineurs sur ses plates-formes ?

Lorsque nous détectons des contenus d'abus sexuels sur mineurs sur nos plates-formes, nous les supprimons, nous envoyons un rapport CyberTipline au NCMEC et, selon la nature et la gravité de l'infraction, nous pouvons envoyer un avertissement, limiter l'accès d'un compte à certains produits ou services Google, ou encore désactiver le compte Google concerné. Nous pouvons également effectuer un examen plus approfondi du compte Google afin d'identifier d'autres contenus d'abus sexuels sur mineurs et/ou de nous assurer que nous tenons compte du contexte pertinent et que nous prenons des mesures coercitives appropriées et proportionnées par rapport au contenu identifié dans le compte Google.

 

Le NCMEC est un centre d'informations et de signalement consacré à ce type de contenu. Basé aux États-Unis, il lutte contre l'exploitation des enfants. Quand le NCMEC reçoit un signalement, il peut le transmettre aux organismes chargés de l'application des lois dans le monde entier.

Qu'est-ce qu'un rapport CyberTipline et quel type d'informations contient-il ?

Google signale au NCMEC les contenus d'abus sexuels sur mineurs supposés dont il a connaissance. Ces signalements sont communément appelés "rapports CyberTipline" ou "rapports CyberTip". En outre, nous essayons d'identifier les cas impliquant des abus physiques sur mineur, la production de contenus d'abus sexuels sur mineurs et le trafic d'enfants. Nous envoyons alors un rapport CyberTip supplémentaire au NCMEC afin de l'aider à accorder la priorité nécessaire au problème. Un rapport envoyé au NCMEC peut inclure des informations identifiant l'utilisateur et la victime mineure, et peut inclure le contenu non conforme et/ou d'autres données contextuelles utiles.

Les exemples ci-dessous illustrent l'impact concret des rapports CyberTip transmis par Google. Ils offrent un aperçu de nos différents signalements, mais n'en constituent pas une liste exhaustive.  

  • Google a envoyé un rapport CyberTip signalant plusieurs contenus d'abus sexuels sur des élèves d'une école primaire dans une salle de classe. Certains des contenus signalés n'avaient encore jamais été identifiés par Google et semblaient avoir été produits par le titulaire du compte Google concerné. Le NCMEC a transmis le rapport aux autorités, ce qui a permis d'identifier et de prendre en charge deux enfants représentés dans des images signalées.  
  • Google a envoyé un rapport Cybertip signalant la sollicitation et la production de contenus d'abus sexuels sur mineurs par le titulaire d'un compte. Cette personne avait demandé la création contre rémunération de plusieurs vidéos d'abus physiques sur un grand nombre de garçons mineurs. Le NCMEC a transmis le rapport aux autorités. Le titulaire du compte a été condamné pour production de contenus d'abus sexuels sur mineurs. Plusieurs dizaines d'enfants victimes d'abus répétés ont été identifiés et pris en charge.
  • Google a envoyé un rapport CyberTip signalant un élément unique de contenus d'abus sexuels sur mineurs déjà recensés, menant à l'arrestation du titulaire de compte. Selon les autorités, cette personne était en possession de nombreux autres contenus similaires, était directement impliquée dans des abus physiques sur des mineurs dont elle avait la charge, et mettait ces mineurs à la disposition d'autres agresseurs.  Grâce aux efforts conjoints de Google, du NCMEC et des autorités chargées de l'application de la loi, trois enfants victimes d'abus sexuels ont pu être protégés.
  • Google a envoyé un rapport CyberTip signalant la production de contenus d'abus sexuels sur mineurs par un titulaire de compte Google et la sollicitation de contenus par la même personne auprès de mineurs avec lesquels elle pouvait communiquer en ligne. Le titulaire du compte a été arrêté. Les autorités ont déterminé que cette personne avait également utilisé la confiance inspirée par son statut de professionnel du corps médical pour abuser de patients à sa charge et pour accéder directement à des mineurs en ligne, auprès desquels elle avait sollicité la production de contenus d'abus sexuels sur mineurs.

Comment Google lutte-t-il contre les risques liés aux contenus d'abus sexuels sur mineurs dans le domaine de l'IA générative ?

Les images d'abus sexuels sur mineurs générées par IA ou par ordinateur sont des dangers que Google prend très au sérieux. Dans nos efforts pour détecter, supprimer et signaler les contenus d'abus sexuels sur mineurs, nous avons toujours inclus le contenu non conforme impliquant des mineurs réels, les images modifiées d'un mineur identifiable se livrant à un comportement sexuellement explicite, ainsi que les images générées par ordinateur difficilement différenciables d'un contenu où de véritables mineurs se livrent à ce type de comportement.

Lors de la création de ses propres modèles et produits d'IA générative, Google accorde une grande importance à la sécurité des enfants. Nous respectons les principes de Google sur l'utilisation responsable de l'IA générative en protégeant tous les modèles de Google accessibles au public et les services qui s'appuient sur ces modèles.

Nous déployons plusieurs dispositifs de protection de la sécurité des enfants pour nos modèles et produits d'IA générative. Cela peut inclure des protections contre la présence de contenus d'abus sexuels sur mineurs dans les données d'entraînement sous-jacentes de nos modèles, contre la recherche et la production de requêtes de ce type, et contre les résultats qui enfreignent nos règles. Nous menons également des tests rigoureux pour la sécurité des enfants sur nos modèles avant leur lancement public afin de comprendre et de réduire les risques de génération de contenus d'abus sexuels sur mineurs.

Nous collaborons aussi avec d'autres acteurs de l'écosystème pour la sécurité des enfants, dont la Technology Coalition et des ONG œuvrant pour la sécurité des enfants, afin de partager et de comprendre les bonnes pratiques à mesure que cette technologie évolue.

Que fait Google pour empêcher les utilisateurs de rechercher des contenus d'abus sexuels sur mineurs dans la recherche Google ?

Google applique des principes de sécurité intrinsèque pour empêcher les utilisateurs d'utiliser la recherche Google dans le but d'accéder à des contenus d'abus sexuels sur mineurs. Nous bloquons les résultats de recherche dirigeant vers des contenus qui présentent des abus sexuels, une mise en danger ou toute autre forme d'exploitation de mineurs. Nous mettons constamment à jour nos algorithmes afin de lutter contre ces menaces en constante évolution. Nous supprimons toujours les contenus d'abus sexuels sur mineurs lorsqu'ils sont identifiés et nous rétrogradons tous les contenus des sites qui présentent une proportion élevée de ce type de contenu. Nous utilisons des protections supplémentaires pour les recherches qui semblent porter sur des contenus d'abus sexuels sur mineurs. Dans ce cas, nous excluons les résultats à caractère sexuel explicite. Pour les requêtes portant sur des contenus explicites réservés aux adultes, la recherche Google ne renvoie pas d'images qui mettent en scène des enfants, ceci afin de dissocier les enfants du contenu à caractère sexuel. Dans de nombreux pays, les requêtes se rapportant clairement à du contenu d'abus sexuels sur mineurs renvoient vers un avertissement bien visible, qui rappelle que les images d'abus sexuels sur mineurs sont illégales et indique comment signaler ce type de contenu à des organismes de confiance. Nous avons constaté que les utilisateurs ont tendance à moins rechercher ce type de contenus lorsque cet avertissement est affiché.

Comment Google contribue-t-il à l'écosystème de protection de l'enfance pour mieux lutter contre les contenus d'abus sexuels sur mineurs ?

L'équipe Google dédiée à la sécurité des enfants développe des technologies capables de détecter, signaler et supprimer de façon précise les contenus d'abus sexuels sur mineurs, afin de protéger les utilisateurs et d'empêcher l'exploitation d'enfants sur les produits Google. Nous avons développé le kit pour la sécurité des enfants pour que l'ensemble de l'écosystème ait aussi accès à cette technologie puissante, et pour empêcher la prolifération en ligne de contenus d'abus sexuels sur mineurs. Nous fournissons également l'API Hash Matching de Google au NCMEC. L'API aide le NCMEC à hiérarchiser et examiner plus efficacement les rapports CyberTipline, et lui permet d'identifier les signalements qui concernent des enfants nécessitant une assistance immédiate. 

Par ailleurs, nous partageons des signaux d'exploitation et d'abus sexuels sur mineurs pour permettre la suppression des contenus d'abus sexuels sur mineurs dans l'ensemble de l'écosystème. Nous partageons des millions de hachages de contenus d'abus sexuels sur mineurs avec la base de données de hachage du secteur du NCMEC, afin que d'autres fournisseurs puissent également y accéder et les utiliser. Nous avons aussi rejoint le programme Lantern Project, qui permet aux entreprises technologiques de partager des signaux pertinents pour lutter contre l'exploitation et les abus sexuels en ligne de manière sécurisée et responsable, en tenant compte du fait que ces abus peuvent intervenir sur plusieurs plates-formes et services.

Nous participons aussi activement à plusieurs coalitions, dont la Technology Coalition, WeProtect Global Alliance et INHOPE. Ces initiatives rassemblent les entreprises et les ONG afin de mettre au point des solutions pour contrer l'échange de contenus d'abus sexuels sur mineurs sur Internet et lutter contre l'exploitation sexuelle d'enfants. Pour Google, participer à ces coalitions est une priorité. En travaillant avec des ONG telles que le NCMEC et Thorn, nous partageons notre expertise, explorons les bonnes pratiques et nous renseignons sur les dernières menaces concernant les principaux problèmes liés à la sécurité des enfants.

Comment les autorités administratives peuvent-elles soumettre des réquisitions judiciaires à Google dans le cadre d'un rapport CyberTip ?

Quand le NCMEC reçoit un signalement, il peut le transmettre aux organismes chargés de l'application des lois dans le monde entier. Ces organismes peuvent ensuite envoyer à Google une réquisition judiciaire pour demander des informations complémentaires (Système de demande judiciaire - LERS). Pour faciliter ces demandes, Google met à leur disposition un système en ligne qui permet aux autorités administratives validées d'envoyer des demandes d'informations supplémentaires de manière sécurisée. Elles peuvent ensuite consulter l'état des demandes envoyées via ce système en ligne, puis télécharger la réponse de Google. Pour en savoir plus sur le LERS ou pour créer un compte LERS, rendez-vous sur lers.google.com. Pour obtenir plus d'informations, consultez nos règles pour savoir comment Google traite les demandes gouvernementales d'informations sur les utilisateurs.

 Comment puis-je signaler des contenus que je soupçonne être des abus sexuels sur mineurs ?

Si vous trouvez un lien, un site Web ou d'autres contenus d'abus sexuels sur mineurs, vous pouvez les signaler à la police, au NCMEC ou à une organisation compétente dans votre région. Si vous remarquez des contenus ou des comportements inappropriés pour les enfants dans les produits Google, vous pouvez nous les signaler de différentes manières, y compris en signalant les délits liés à la mise en danger d'enfants (par exemple, sollicitation d'enfants à des fins sexuelles, sextorsion ou autres formes d'exploitation sexuelle d'enfants) survenant dans les produits Google. Vous pouvez empêcher d'autres utilisateurs de contacter votre enfant dans les produits Google et filtrer les contenus visibles par votre enfant en gérant les paramètres de son compte Google.

Quelles équipes examinent les rapports portant sur les contenus d'abus sexuels sur mineurs ?

L'examen manuel fait partie intégrante de nos efforts continus visant à lutter contre les contenus d'abus sexuels sur mineurs. Les membres de notre équipe contribuent à ces efforts grâce à leur expertise dans différents domaines : juridique, sécurité et défense des enfants, accompagnement social et cyberinvestigation, entre autres disciplines. Ils sont spécialement formés, tant sur la portée de nos règles que sur la définition des contenus d'abus sexuels sur mineurs au regard de la loi. Nos équipes de modérateurs suivent une formation spécialisée et bénéficient d'un soutien psychologique. Pour en savoir plus sur la façon dont Google gère la modération du contenu, y compris le soutien psychologique apporté à nos équipes, consultez cette page.

Quelle est la période concernée par ce rapport ?

Les métriques présentées sur cette page représentent les données collectées du 1er janvier à minuit (PST) au 30 juin à 23h59 (PDT), et du 1er juillet à minuit (PDT) au 31 décembre à 23h59 (PST), sauf indication contraire.
Menu principal
6619795480659113948
true
Rechercher dans le centre d'aide
true
true
true
false
false