Veelgestelde vragen over hoe Google zich inzet om online materiaal met seksueel misbruik van kinderen te bestrijden

Wat is materiaal met seksueel misbruik van kinderen?

CSAM staat voor Child Sexual Abuse Material (materiaal met seksueel misbruik van kinderen). Dit materiaal bestaat uit visueel beeldmateriaal (inclusief maar niet beperkt tot foto's, video's en door de computer gegenereerde afbeeldingen) waarop een minderjarige wordt misbruikt voor seksueel expliciete handelingen. We zijn ons ervan bewust dat materiaal met seksueel misbruik van kinderen niet hetzelfde is als naaktheid van kinderen. Onze beleidsmaatregelen en systemen zijn daarom specifiek ontworpen om goedaardige afbeeldingen, zoals een kind dat in bad of in de tuin speelt, die niet seksueel van aard zijn en geen materiaal met seksueel misbruik van kinderen vormen, te herkennen en te onderscheiden van afbeeldingen waarop sprake is van seksueel misbruik van kinderen of wellustige vertoning van geslachtsorganen en intieme gebieden waarbij de wet wordt geschonden. Daarnaast zijn er andere soorten obscene of uitbuitende beelden waarin kinderen voorkomen of worden voorgesteld, zoals cartoonafbeeldingen van seksueel misbruik van kinderen of pogingen tot humoristische afbeeldingen van seksuele uitbuiting van kinderen. Deze afbeeldingen kunnen ook in strijd zijn met wereldwijde wetgeving.

Hoe bestrijdt Google materiaal met seksueel misbruik van kinderen?

Google zet zich in om online materiaal met seksueel misbruik van kinderen te bestrijden en te voorkomen dat onze platforms worden gebruikt om dit materiaal te maken, op te slaan of te distribueren. We zetten veel technologie, mensen en tijd in om content met en gedrag gerelateerd aan seksueel misbruik van kinderen op te sporen, te voorkomen, te verwijderen en te melden. Ga naar het Google Veiligheidscentrum, de Communityrichtlijnen van YouTube, onze website Protecting Children of onze blog voor meer informatie over hoe we materiaal met seksueel misbruik van kinderen opsporen, verwijderen en melden.

Hoe herkent Google materiaal met seksueel misbruik van kinderen op het platform?

We investeren veel om seksuele uitbuiting van kinderen online te bestrijden en gebruiken technologie om materiaal met seksueel misbruik van kinderen te ontmoedigen, op te sporen en te verwijderen van onze platforms. Dit omvat automatische detectie en beoordeling door een medewerker. We vertrouwen ook op meldingen die zijn ingediend door onze gebruikers en door derden, zoals ngo's. We gebruiken hashmatching, waaronder CSAI Match van YouTube, om bekend materiaal met seksueel misbruik van kinderen op te sporen. We zetten ook classificaties voor machine learning in om nooit eerder gezien materiaal met seksueel misbruik van kinderen te ontdekken. Dit materiaal wordt daarna gecontroleerd door onze gespecialiseerde beoordelingsteams om te bevestigen dat het om materiaal met seksueel misbruik van kinderen gaat. De opsporing van materiaal met seksueel misbruik van kinderen dat nog niet eerder is gevonden, helpt het ecosysteem voor kindveiligheid op verschillende manieren, onder meer door slachtoffers die moeten worden beschermd op te sporen en door bij te dragen aan de hash-set en zo onze mogelijkheden te vergroten om al bekend materiaal met seksueel misbruik van kinderen op te sporen. Aan de hand van onze classificaties heeft Google de API voor contentveiligheid gemaakt, die we aan anderen aanbieden zodat ze content met misbruik kunnen prioriteren voor beoordeling door een medewerker.


CSAI Match en de API voor contentveiligheid zijn beide beschikbaar voor in aanmerking komende entiteiten die misbruik op hun platforms bestrijden. Bekijk hier meer informatie.

Wat doet Google als er materiaal met seksueel misbruik van kinderen op hun platforms wordt gevonden?

Als we materiaal met seksueel misbruik van kinderen op onze platforms vinden, verwijderen we dit materiaal en dienen we een CyberTipline-melding in bij het NCMEC. Afhankelijk van de aard en ernst van de schending kunnen we een waarschuwing geven, de toegang van een account tot bepaalde Google-producten of -services beperken of het Google-account deactiveren. We kunnen het Google-account ook verder beoordelen om aanvullend materiaal met seksueel misbruik van kinderen op te sporen en/of na te gaan of we de relevante context in overweging nemen om te zorgen dat we passende en evenredige handhavingsmaatregelen nemen met betrekking tot het materiaal dat is geïdentificeerd in het Google-account.

 

Het NCMEC fungeert als informatie- en rapportagecentrum in de Verenigde Staten voor kwesties met betrekking tot uitbuiting van kinderen. Als het NCMEC een melding krijgt, kunnen ze deze melding doorsturen naar wetshandhavende instanties over de hele wereld.

Wat is een CyberTipline-melding en wat voor soort informatie bevat deze?

Als Google zich bewust wordt van vermeend materiaal met seksueel misbruik van kinderen, melden we dat bij het NCMEC. Deze meldingen worden vaak CyberTipline-meldingen of CyberTips genoemd. Daarnaast proberen we gevallen op te sporen met betrekking tot fysiek misbruik van minderjarigen, de productie van materiaal met seksueel misbruik van kinderen, of kinderhandel. In dit soort gevallen sturen we nog een CyberTip-melding naar het NCMEC, zodat ze de kwestie kunnen prioriteren. Een melding die naar het NCMEC wordt gestuurd, kan informatie bevatten over de gebruiker, het minderjarige slachtoffer en de content die de richtlijnen schendt en/of andere nuttige contextuele gegevens.

Hieronder staan enkele voorbeelden van daadwerkelijke impact naar aanleiding van door Google ingediende CyberTip-meldingen. Deze voorbeelden bieden een blik op de grote verscheidenheid aan meldingen die we doen, maar zijn niet uitputtend.  

  • Via een CyberTip van Google werden meerdere instanties van materiaal met seksueel misbruik van kinderen gemeld dat betrekking had op basisschoolkinderen en dat gemaakt was in een school. Enkele van de gemelde instanties van materiaal met seksueel misbruik van kinderen waren al eerder opgespoord door Google en leken te zijn geproduceerd door de houder van het Google-account. Het NCMEC stuurde de melding door naar de wetshandhavende instanties en dat leidde tot de opsporing en bescherming van 2 minderjarige kinderen die waren afgebeeld op de gemelde afbeeldingen met seksueel misbruik van kinderen.  
  • Via een CyberTip van Google werd melding gemaakt van het verzoek om en de productie van materiaal met seksueel misbruik van kinderen door een accounthouder, die verzocht om het maken van meerdere video's met fysiek misbruik van tientallen minderjarige jongens in ruil voor geld. Het NCMEC stuurde de melding door naar wetshandhavende instanties. De accounthouder werd veroordeeld voor de productie van materiaal met seksueel misbruik van kinderen en enkele tientallen kinderen werden opgespoord en beschermd tegen aanhoudend misbruik.
  • Via een CyberTip van Google werd melding gemaakt van één instantie van bekend materiaal met seksueel misbruik van kinderen, wat leidde tot de arrestatie van de accounthouder. Volgens de wetshandhavende instanties bleek die in het bezit te zijn van veel meer materiaal met seksueel misbruik van kinderen en was die direct betrokken bij het fysieke misbruik van minderjarigen die onder hun zorg vielen, waarbij die deze minderjarigen ook aanbood aan anderen om te misbruiken. Dankzij de inspanningen van Google, het NCMEC en de wetshandhavende instanties werden 3 kinderen gered van seksueel misbruik.
  • Via een CyberTip van Google werd melding gemaakt van materiaal met seksueel misbruik van kinderen dat werd geproduceerd door de houder van een Google-account en waar de accounthouder minderjarigen waartoe die online toegang had om vroeg. De accounthouder werd later opgepakt en de wetshandhavende instanties stelden vast dat die een vertrouwenspositie had als medisch professional. De persoon gebruikte deze positie om patiënten die onder hun zorg vielen te misbruiken en had online direct toegang tot minderjarigen die werden gevraagd om materiaal met seksueel misbruik van kinderen te produceren.

Hoe bestrijdt Google risico's van materiaal met seksueel misbruik van kinderen gemaakt met generatieve AI (GenAI)?

AI-gegenereerd materiaal of door een computer gegenereerde afbeeldingen met seksueel misbruik van kinderen zijn een bedreiging die Google uiterst serieus neemt. Bij onze inspanningen om materiaal met seksueel misbruik van kinderen op te sporen, te verwijderen en te melden, hebben we ons altijd gericht op content die ons beleid schendt met daadwerkelijke minderjarigen, aangepaste afbeeldingen van een identificeerbare minderjarige die betrokken is bij seksueel expliciet gedrag en door computers gegenereerde afbeeldingen die niet te onderscheiden zijn van een daadwerkelijke minderjarige die betrokken is bij dit gedrag.

Bij het maken van onze eigen GenAI-modellen en -producten legt Google veel nadruk op kindveiligheid. We volgen de Principes van Google voor verantwoorde generatieve AI bij de bescherming van alle openbaar beschikbare modellen van Google en de services die zijn gebaseerd op deze modellen.

We implementeren verschillende maatregelen in onze GenAI-modellen en -producten om de veiligheid van kinderen te waarborgen. Dit kan bijvoorbeeld bescherming zijn tegen de aanwezigheid van materiaal met seksueel misbruik van kinderen in de trainingsgegevens waarop onze modellen worden gebaseerd, tegen het zoeken en produceren van materiaal met seksueel misbruik van kinderen en tegen uitvoer die in strijd is met ons beleid. We onderwerpen onze modellen voorafgaand aan de openbare lancering ook aan grondige tests voor de veiligheid van kinderen om inzicht te krijgen in de mogelijkheid dat materiaal met seksueel misbruik van kinderen wordt gegenereerd en deze mogelijkheid te beperken.

We werken ook samen met anderen in het ecosysteem voor kindveiligheid, waaronder de Technology Coalition en ngo's voor kindveiligheid, om best practices te delen en te begrijpen terwijl deze technologie zich blijft ontwikkelen.

Wat doet Google om gebruikers af te schrikken zodat ze geen materiaal met seksueel misbruik van kinderen zoeken via Zoeken?

Google gebruikt beginselen op basis van veiligheid door middel van ontwerp om gebruikers af te schrikken, zodat ze niet op jacht gaan naar materiaal met seksueel misbruik van kinderen via Zoeken. Het is ons beleid om zoekresultaten te blokkeren die leiden naar materiaal met seksueel misbruik van kinderen waarop het lijkt alsof kinderen seksueel slachtoffer zijn, in gevaar worden gebracht of op een andere manier worden uitgebuit. We updaten onze algoritmen voortdurend zodat ze de ontwikkelende dreigingen blijven bestrijden. We passen extra beveiligingsmaatregelen toe op zoekopdrachten die volgens ons gericht zijn op materiaal met seksueel misbruik van kinderen. We filteren expliciete seksuele resultaten eruit als iemand op materiaal met seksueel misbruik van kinderen lijkt te zoeken. Als iemand expliciete content voor volwassenen lijkt te zoeken, stuurt Zoeken geen afbeeldingen met kinderen terug om de associatie tussen kinderen en seksuele content te doorbreken. We verwijderen niet alleen content met seksueel misbruik van kinderen uit de index van Google Zoeken als die wordt gevonden, maar verwijderen ook alle content van sites met een hoog aandeel materiaal met seksueel misbruik van kinderen. In veel landen wordt een prominente waarschuwing getoond aan gebruikers die een zoekopdracht invoeren die duidelijk verband houdt met materiaal met seksueel misbruik van kinderen. Hierin staat dat beelden van seksueel misbruik van kinderen illegaal zijn, met informatie over hoe deze content kan worden gemeld aan vertrouwde organisaties. We hebben geconstateerd dat als deze waarschuwingen worden getoond, gebruikers minder vaak verder gaan met zoeken naar dit materiaal.

Op welke manier draagt Google bij aan het ecosysteem voor kindveiligheid om materiaal met seksueel misbruik van kinderen te bestrijden?

Het team voor kindveiligheid van Google ontwikkelt technologie waarmee materiaal met seksueel misbruik van kinderen nauwkeurig wordt opgespoord, gemeld en verwijderd om onze gebruikers te beschermen en te voorkomen dat kinderen worden misbruikt op Google-producten. We hebben de Toolkit voor kindveiligheid ontwikkeld om te zorgen dat het bredere ecosysteem ook toegang heeft tot deze krachtige technologie en om de online verspreiding van materiaal met seksueel misbruik van kinderen te voorkomen. Daarnaast bieden we het NCMEC toegang tot de Hash Matching API van Google om hen te helpen CyberTipline-meldingen efficiënter te prioriteren en beoordelen. Zo kunnen ze zich richten op meldingen die betrekking hebben op kinderen die onmiddellijk hulp nodig hebben.

We delen ook signalen van seksueel misbruik en uitbuiting van kinderen om materiaal met seksueel misbruik van kinderen uit het bredere ecosysteem te verwijderen. We delen miljoenen hashes van materiaal met seksueel misbruik van kinderen met de branchehashdatabase van het NCMEC, zodat ze ook toegankelijk zijn voor andere providers. We hebben ook ons aangemeld bij Project Lantern, een programma waarmee technologiebedrijven relevante signalen kunnen delen om online seksueel misbruik en seksuele uitbuiting op een veilige en verantwoordelijke manier te bestrijden, in de wetenschap dat dit misbruik op verschillende platforms en services tegelijk kan voorkomen.

We zijn ook actief lid van verschillende coalities, zoals de Technology Coalition, de WeProtect Global Alliance en INHOPE, die bedrijven en ngo's samenbrengen om oplossingen te ontwikkelen die de uitwisseling van materiaal met seksueel misbruik van kinderen online verstoren en de seksuele uitbuiting van kinderen voorkomen. Google geeft prioriteit aan deelname aan deze coalities. In onze samenwerking met ngo's zoals NCMEC en Thorn delen we onze expertise, onderzoeken we best practices en komen we meer te weten over de nieuwste bedreigingen op het gebied van belangrijke kwesties met betrekking tot de veiligheid van kinderen.

Hoe kunnen overheidsinstanties juridische verzoeken indienen bij Google die zijn gekoppeld aan een CyberTip?

Als het NCMEC een melding krijgt, kunnen ze deze melding doorsturen naar wetshandhavende instanties over de hele wereld. Wetshandhavende instanties kunnen daarna een juridische procedure indienen bij Google om meer informatie op te vragen (Law Enforcement Request System - LERS). Voor dergelijke verzoeken biedt Google een online systeem waarmee geverifieerde overheidsinstanties verzoeken om meer informatie beveiligd kunnen indienen. Deze instanties kunnen daarna de status bekijken van verzoeken die zijn ingediend via dit online systeem en uiteindelijk de reactie van Google op hun verzoek downloaden. Ga naar lers.google.com voor meer informatie over het LERS of om een LERS-account te maken. Zie ons beleid voor de manier waarop Google omgaat met overheidsverzoeken om gebruikersinformatie voor meer informatie over hoe u gegevens opvraagt bij Google.

Hoe meld ik vermeend materiaal met seksueel misbruik van kinderen?

Als u een link, website of content vindt met materiaal met seksueel misbruik van kinderen, kunt u deze melden bij de politie, het NCMEC of een toepasselijke organisatie in uw eigen land. Als u ongepaste content of ongepast gedrag tegen kinderen aantreft in de producten van Google, kunt u dit op verschillende manieren aan ons melden, bijvoorbeeld door misdrijven te melden die plaatsvinden in Google-producten en kinderen in gevaar brengen (zoals kinderlokken, sextortion, andere vormen van seksuele uitbuiting van kinderen). U kunt voorkomen dat mensen contact opnemen met uw kind in Google-producten en de content filteren die uw kind te zien krijgt door hun Google-accountinstellingen te beheren.

Welke teams beoordelen meldingen over materiaal met seksueel misbruik van kinderen?

Handmatige beoordeling is een essentieel onderdeel van ons voortdurende proces om materiaal met seksueel misbruik van kinderen te bestrijden. Onze teamleden beschikken over uitgebreide kennis van deze werkzaamheden en hebben een achtergrond in onder andere wetshandhavende instanties, kindveiligheid en belangen van kinderen, sociaal werk en cyberonderzoek. Ze hebben een speciale opleiding gekregen over zowel de reikwijdte van ons beleid als wat in juridische zin materiaal met seksueel misbruik van kinderen vormt. Reviewers krijgen speciale training en ondersteuning voor hun geestelijk welzijn. Bekijk hier meer informatie over hoe Google contentmoderatie aanpakt, waaronder hoe we het geestelijk welzijn van reviewers ondersteunen.

Op welke periode is dit rapport van toepassing?

De statistieken die hier staan, vertegenwoordigen gegevens die zijn verzameld van 00:00 uur PST op 1 januari tot en met 23:59 uur PDT op 30 juni en van 00:00 uur PDT op 1 juli tot en met 23:59 uur PST op 31 december, tenzij anderszins aangegeven.
Hoofdmenu
16801009311521946288
true
Zoeken in het Helpcentrum
true
true
true
false
false