Hvad er CSAM?
Hvad er Googles tilgang til bekæmpelse af indhold med seksuelt misbrug af børn?
Hvordan identificerer Google indhold med seksuelt misbrug af børn på Googles platform?
Vi arbejder hårdt på at bekæmpe seksuel udnyttelse af børn på nettet og bruger teknologi til at forhindre, registrere og fjerne indhold med seksuelt misbrug af børn på vores platforme. Denne indsats omfatter automatisk registrering og menneskelig gennemgang af indhold samt brug af indberetninger, der indsendes af vores brugere og tredjeparter såsom NGO'er. Vi bruger hashmatchning, herunder YouTubes CSAI Match, til at registrere kendt CSAM. Vi benytter også maskinlæringsklassificeringer til at finde indhold med seksuelt misbrug af børn, som aldrig er blevet set før, og som derefter bekræftes via gennemgang af vores ekspertteams. Registrering af CSAM, som aldrig er blevet set før, hjælper økosystemet for beskyttelse af børn på en række forskellige måder, herunder identificering af mindreårige ofre, der har behov for beskyttelse, og bidrag til hash-sættet med henblik på mere omfattende registrering af kendt CSAM. Ved hjælp af disse klassificeringer har Google skabt Content Safety API, som vi stiller til rådighed for andre, så de kan prioritere indhold med misbrug, der kræver menneskelig gennemgang.
Både CSAI Match og Content Safety API kan benyttes af kvalificerede enheder, der vil bekæmpe misbrug på deres platforme. Få flere oplysninger her.
Hvad gør Google, når der registreres indhold med seksuelt misbrug af børn på Googles platform?
NCMEC, der ligger i USA, fungerer som et clearing-house og samlet center for indberetning af sager, der involverer udnyttelse af børn. Når NCMEC modtager en indberetning, kan de videresende den til retshåndhævende myndigheder rundt omkring i verden.
Hvad er en CyberTipline-rapport, og hvilken slags oplysninger omfatter en sådan indberetning?
Når Google bliver bekendt med indhold, der tilsyneladende omfatter seksuelt misbrug af børn, sender vi en indberetning til NCMEC. Disse rapporter kaldes CyberTipLine-rapporter eller CyberTips. Derudover forsøger vi at identificere sager, der involverer fysisk misbrug af mindreårige, produktion af indhold med seksuelt misbrug af børn samt trafficking af børn. I sådanne tilfælde sender vi en supplerende CyberTip-indberetning til NCMEC for at eskalere sagen. En indberetning til NCMEC kan omfatte oplysninger, der identificerer brugeren og det mindreårige offer, og indberetningen kan omfatte det indhold, der overtræder politikkerne, og/eller andre nyttige kontekstuelle data.
Nedenfor kan du se nogle eksempler på, hvilken forskel de CyberTip-indberetninger, Google har indsendt, har gjort i den virkelige verden. De repræsenterer et udsnit af en lang række indberetninger, vi indsender, men er ikke udtømmende.
- Et Google-Cybertip indberettede adskillige indholdselementer med CSAM, der omfattede folkeskolebørn i et undervisningslokale. Nogle af de indberettede indholdselementer med CSAM blev tidligere ikke identificeret af Google og lod til at være produceret af Google-kontoindehaveren. NCMEC videresendte indberetningen til politiet, hvilket førte til identificering af og beskyttelse af to mindreårige børn, der optrådte på billederne med CSAM.
- Et Google-Cybertip indberettede opfordringer til og produktion af CSAM af en kontoindehaver, der anmodede om, at der skulle produceres adskillige videoer, i hvilke en lang række mindreårige drenge udsættes for fysiske overgreb, mod betaling. NCMEC videresendte indberetningen til politiet. Kontoindehaveren blev dømt for produktion af CSAM og en lang række børn blev identificeret og beskyttet mod misbruget.
- Et Google-CyberTip indberettede et enkeltstående indholdselement med CSAM, der førte til tilbageholdelse af kontoindehaveren, der – ifølge politiet – var i besiddelse af langt mere CSAM og direkte involveret i fysisk misbrug af mindreårige i vedkommendes varetægt samt udlevering af de pågældende mindreårige til andre med henblik på misbrug. Takket være indsatsen fra Google, NCMEC og politiet blev de tre børn reddet fra den seksuelle misbrug.
- Et Google-Cybertip indberettede CSAM, der var produceret af en Google-kontoindehaver, og som blev fremskaffet fra de mindreårige, som kontoindehaveren havde onlineadgang til. Kontoindehaveren blev senere tilbageholdt, og politiet vurderede, at vedkommende var en autoritetsperson i kraft af sit virke som læge: Personen udnyttede denne autoritet til at misbruge sine patienter og havde direkte adgang til mindreårige på nettet, fra hvilke vedkommende anmodede om produktionen af CSAM.
Hvordan forsøger Google at reducere risikoen for CSAM i forbindelse med generativ AI (GenAI)?
AI-genereret CSAM eller computergenererede billeder, der viser seksuelt misbrug af børn, er en trussel, som Google tager meget alvorligt. Vores indsats med at registrere, fjerne og indberette CSAM har altid omfattet forbudt indhold med virkelige mindreårige, ændrede billeder af en identificerbar mindreårig, som er involveret i eksplicit seksuel aktivitet, og computergenererede billeder af en mindreårig, som ikke kan skelnes fra en virkelig mindreårig, som er involveret i en sådan aktivitet.
Google lægger stor vægt på beskyttelse af børn, når vi udvikler vores egne GenAI-modeller og -produkter. Vi følger Googles principper vedrørende ansvarlig generativ AI i vores bestræbelser på at beskytte alle Googles offentligt tilgængelige modeller og de tjenester, der er udviklet ud fra disse modeller.
Vi implementerer en række foranstaltninger til beskyttelse af børn i vores GenAI-modeller og -produkter. Dette kan omfatte beskyttelse mod tilstedeværelsen af CSAM i de træningsdata, vores modeller er baseret på, mod søgning efter og generering af CSAM-relaterede prompts og mod output, der overtræder politikkerne. Vi foretager også grundige tests af foranstaltningerne til beskyttelse af børn på vores modeller inden den offentlige lancering for at få indblik i og reducere risikoen for, at der genereres CSAM.
Vi samarbejder også med andre i økosystemet for beskyttelse af børn – herunder Technology Coalition og NGO'er, der beskæftiger sig med beskyttelse af børn – om at dele og forstå den bedste praksis, i takt med at denne teknologi udvikler sig.
Hvad gør Google for at afholde brugere fra at søge efter CSAM i Søgning?
Hvordan bidrager Google til økosystemet for beskyttelse af børn med henblik på at bekæmpe CSAM?
Google-teamet for beskyttelse af børn udvikler teknologi, der nøjagtigt registrerer, indberetter og fjerner CSAM for at beskytte vores brugere og forhindre, at børn udsættes for fare i Google-produkter. Vi har udviklet et værktøjssæt til beskyttelse af børn for at sikre, at det overordnede økosystem også har adgang til denne effektive teknologi, og for at forhindre udbredelsen af indhold med seksuelt misbrug af børn på nettet. Derudover tilbyder vi Googles Hash Matching API til NCMEC for at hjælpe dem med at prioritere og gennemgå CyberTipline-indberetninger på en mere effektiv måde ved at give dem mulighed for at fokusere på de indberetninger, der involverer børn, som har brug for akut hjælp.
Vi deler også signaler om seksuelt misbrug og udnyttelse af børn for at muliggøre fjernelse af CSAM i det bredere økosystem. Vi deler millioner af CSAM-hash-værdier med NCMEC's branchedatabase for hash-værdier, så andre udbydere også kan tilgå og bruge disse hash-værdier. Vi deltager også i Project Lantern, der er et program, som giver teknologivirksomheder mulighed for at dele relevante signaler med henblik på at bekæmpe seksuelt misbrug og seksuel udnyttelse på nettet på en sikker og ansvarlig måde, da det er åbenlyst, at en sådan misbrug kan optræde på tværs af forskellige platforme og tjenester.
Vi er også aktivt medlem af en række sammenslutninger såsom Technology Coalition, WeProtect Global Alliance og INHOPE, der samler virksomheder og NGO'er med henblik på at udvikle løsninger, der bekæmper udvekslingen af CSAM på nettet og forhindrer seksuel udnyttelse af børn. Google prioriterer deltagelse i disse sammenslutninger, og i vores arbejde med NGO'er såsom NCMEC og Thorn deler vi ud af vores ekspertise, udforsker den bedste praksis og tilegner os ny viden om de nyeste og vigtigste trusler mod børns sikkerhed.