Ofte stillede spørgsmål om Googles tiltag til bekæmpelse af indhold med seksuelt misbrug af børn

Hvad er CSAM?

CSAM står for "Child Sexual Abuse Material", og er indhold, der skildrer seksuelle aktiviteter med børn. Indholdet består af enhver visuel skildring, herunder, men ikke begrænset til, billeder, videoer og computergenererede billeder, hvor en mindreårig er involveret i eksplicit seksuel aktivitet. Vi er klar over, at CSAM ikke er det samme som indhold med nøgne børn, og vores politikker og systemer er designet til at genkende og skelne mellem harmløse billeder, der ikke er seksuelle og ikke er CSAM, f.eks. et barn, der leger i badekarret eller baghaven, og billeder, der involverer seksuelt misbrug af et barn eller viser barnets kønsdele og intime områder i en seksuel kontekst, som er i strid med globale love. Derudover er der andre typer uanstændige eller udnyttende billeder, der omfatter eller repræsenterer børn, f.eks. afbildninger i tegneseriestil af seksuelt misbrug af børn eller forsøg på humoristiske skildringer af seksuel udnyttelse af børn. Disse billeder kan også være i strid med globale love.

Hvad er Googles tilgang til bekæmpelse af indhold med seksuelt misbrug af børn?

Hos Google stræber vi efter at bekæmpe CSAM på nettet og forhindre, at vores platforme bruges til at skabe, opbevare eller distribuere dette materiale. Vi bruger betydelige ressourcer – teknologi, arbejdskraft og tid – på at registrere, forebygge, fjerne og indberette indhold og adfærd med seksuel udnyttelse af børn. Du kan få flere oplysninger om vores bestræbelser på at beskytte børn og familier i Google Sikkerhedscenter, i YouTubes retningslinjer for fællesskabet, på vores website vedrørende beskyttelse af børn og på vores blog om, hvordan vi registrerer, fjerner og indberetter CSAM.

Hvordan identificerer Google indhold med seksuelt misbrug af børn på Googles platform?

Vi arbejder hårdt på at bekæmpe seksuel udnyttelse af børn på nettet og bruger teknologi til at forhindre, registrere og fjerne indhold med seksuelt misbrug af børn på vores platforme. Denne indsats omfatter automatisk registrering og menneskelig gennemgang af indhold samt brug af indberetninger, der indsendes af vores brugere og tredjeparter såsom NGO'er. Vi bruger hashmatchning, herunder YouTubes CSAI Match, til at registrere kendt CSAM.  Vi benytter også maskinlæringsklassificeringer til at finde indhold med seksuelt misbrug af børn, som aldrig er blevet set før, og som derefter bekræftes via gennemgang af vores ekspertteams. Registrering af CSAM, som aldrig er blevet set før, hjælper økosystemet for beskyttelse af børn på en række forskellige måder, herunder identificering af mindreårige ofre, der har behov for beskyttelse, og bidrag til hash-sættet med henblik på mere omfattende registrering af kendt CSAM. Ved hjælp af disse klassificeringer har Google skabt Content Safety API, som vi stiller til rådighed for andre, så de kan prioritere indhold med misbrug, der kræver menneskelig gennemgang. 


Både CSAI Match og Content Safety API kan benyttes af kvalificerede enheder, der vil bekæmpe misbrug på deres platforme. Få flere oplysninger her.

Hvad gør Google, når der registreres indhold med seksuelt misbrug af børn på Googles platform?

Når vi registrerer CSAM på vores platforme, fjerner vi indholdet, sender en "CyberTipline"-indberetning til NCMEC, og vi kan – afhængigt af overtrædelsens alvor og karakter – give en advarsel, begrænse en kontos adgang til visse Google-produkter og -tjenester eller deaktivere Google-kontoen. Vi foretager muligvis også en nærmere gennemgang af Google-kontoen for at identificere yderligere CSAM og/eller for at sikre, at vi tager den relevante kontekst med i overvejelserne, så vi kan sikre, at vi træffer passende og forholdsmæssigt rimelige foranstaltninger i forbindelse med det materiale, der er identificeret på Google-kontoen.

 

NCMEC, der ligger i USA, fungerer som et clearing-house og samlet center for indberetning af sager, der involverer udnyttelse af børn. Når NCMEC modtager en indberetning, kan de videresende den til retshåndhævende myndigheder rundt omkring i verden.

Hvad er en CyberTipline-rapport, og hvilken slags oplysninger omfatter en sådan indberetning?

Når Google bliver bekendt med indhold, der tilsyneladende omfatter seksuelt misbrug af børn, sender vi en indberetning til NCMEC. Disse rapporter kaldes CyberTipLine-rapporter eller CyberTips. Derudover forsøger vi at identificere sager, der involverer fysisk misbrug af mindreårige, produktion af indhold med seksuelt misbrug af børn samt trafficking af børn. I sådanne tilfælde sender vi en supplerende CyberTip-indberetning til NCMEC for at eskalere sagen. En indberetning til NCMEC kan omfatte oplysninger, der identificerer brugeren og det mindreårige offer, og indberetningen kan omfatte det indhold, der overtræder politikkerne, og/eller andre nyttige kontekstuelle data.

Nedenfor kan du se nogle eksempler på, hvilken forskel de CyberTip-indberetninger, Google har indsendt, har gjort i den virkelige verden. De repræsenterer et udsnit af en lang række indberetninger, vi indsender, men er ikke udtømmende.  

  • Et Google-Cybertip indberettede adskillige indholdselementer med CSAM, der omfattede folkeskolebørn i et undervisningslokale. Nogle af de indberettede indholdselementer med CSAM blev tidligere ikke identificeret af Google og lod til at være produceret af Google-kontoindehaveren. NCMEC videresendte indberetningen til politiet, hvilket førte til identificering af og beskyttelse af to mindreårige børn, der optrådte på billederne med CSAM.  
  • Et Google-Cybertip indberettede opfordringer til og produktion af CSAM af en kontoindehaver, der anmodede om, at der skulle produceres adskillige videoer, i hvilke en lang række mindreårige drenge udsættes for fysiske overgreb, mod betaling. NCMEC videresendte indberetningen til politiet. Kontoindehaveren blev dømt for produktion af CSAM og en lang række børn blev identificeret og beskyttet mod misbruget.
  • Et Google-CyberTip indberettede et enkeltstående indholdselement med CSAM, der førte til tilbageholdelse af kontoindehaveren, der – ifølge politiet – var i besiddelse af langt mere CSAM og direkte involveret i fysisk misbrug af mindreårige i vedkommendes varetægt samt udlevering af de pågældende mindreårige til andre med henblik på misbrug.  Takket være indsatsen fra Google, NCMEC og politiet blev de tre børn reddet fra den seksuelle misbrug.
  • Et Google-Cybertip indberettede CSAM, der var produceret af en Google-kontoindehaver, og som blev fremskaffet fra de mindreårige, som kontoindehaveren havde onlineadgang til. Kontoindehaveren blev senere tilbageholdt, og politiet vurderede, at vedkommende var en autoritetsperson i kraft af sit virke som læge: Personen udnyttede denne autoritet til at misbruge sine patienter og havde direkte adgang til mindreårige på nettet, fra hvilke vedkommende anmodede om produktionen af CSAM.

Hvordan forsøger Google at reducere risikoen for CSAM i forbindelse med generativ AI (GenAI)?

AI-genereret CSAM eller computergenererede billeder, der viser seksuelt misbrug af børn, er en trussel, som Google tager meget alvorligt. Vores indsats med at registrere, fjerne og indberette CSAM har altid omfattet forbudt indhold med virkelige mindreårige, ændrede billeder af en identificerbar mindreårig, som er involveret i eksplicit seksuel aktivitet, og computergenererede billeder af en mindreårig, som ikke kan skelnes fra en virkelig mindreårig, som er involveret i en sådan aktivitet.

Google lægger stor vægt på beskyttelse af børn, når vi udvikler vores egne GenAI-modeller og -produkter. Vi følger Googles principper vedrørende ansvarlig generativ AI i vores bestræbelser på at beskytte alle Googles offentligt tilgængelige modeller og de tjenester, der er udviklet ud fra disse modeller.

Vi implementerer en række foranstaltninger til beskyttelse af børn i vores GenAI-modeller og -produkter. Dette kan omfatte beskyttelse mod tilstedeværelsen af CSAM i de træningsdata, vores modeller er baseret på, mod søgning efter og generering af CSAM-relaterede prompts og mod output, der overtræder politikkerne.  Vi foretager også grundige tests af foranstaltningerne til beskyttelse af børn på vores modeller inden den offentlige lancering for at få indblik i og reducere risikoen for, at der genereres CSAM.

Vi samarbejder også med andre i økosystemet for beskyttelse af børn – herunder Technology Coalition og NGO'er, der beskæftiger sig med beskyttelse af børn – om at dele og forstå den bedste praksis, i takt med at denne teknologi udvikler sig.

Hvad gør Google for at afholde brugere fra at søge efter CSAM i Søgning?

Google har implementeret indbyggede sikkerhedsforanstaltninger, som har til formål at afholde brugerne fra at søge efter CSAM i Søgning. Det er vores politik at blokere søgeresultater, der henviser til indhold med seksuelt misbrug af børn, som lader til at seksualisere børn, sætte dem i fare eller på anden måde udnytte dem. Vi opdaterer konstant vores algoritmer for at bekæmpe disse trusler, der hele tiden ændrer sig. Vi anvender ekstra sikkerhedsforanstaltninger ved søgninger, som vi vurderer eftersøger CSAM. Vi bortfiltrerer seksuelt eksplicitte resultater, hvis søgeforespørgslen lader til at efterspørge CSAM, og i forbindelse med forespørgsler om eksplicit voksenindhold viser Søgning ikke billeder, der omfatter børn. Dette sker med henblik på at fjerne associationen mellem børn og seksuelt indhold. Ud over at fjerne CSAM-indhold fra Søgnings indeks, når dette indhold identificeres, nedrykker vi også alt indhold fra websites med en stor mængde CSAM-indhold. Når brugerne angiver forespørgsler, der åbenlyst er relateret til CSAM, vises der i mange lande en fremtrædende advarsel om, at billeder, der viser seksuelt misbrug af børn, er ulovlige samt oplysninger om, hvordan man indberetter dette indhold til godkendte organisationer. Vi har bemærket, at det er mindre sandsynligt, at brugerne fortsætter deres jagt efter materialet, efter disse advarsler er blevet vist.

Hvordan bidrager Google til økosystemet for beskyttelse af børn med henblik på at bekæmpe CSAM?

Google-teamet for beskyttelse af børn udvikler teknologi, der nøjagtigt registrerer, indberetter og fjerner CSAM for at beskytte vores brugere og forhindre, at børn udsættes for fare i Google-produkter. Vi har udviklet et værktøjssæt til beskyttelse af børn for at sikre, at det overordnede økosystem også har adgang til denne effektive teknologi, og for at forhindre udbredelsen af indhold med seksuelt misbrug af børn på nettet. Derudover tilbyder vi Googles Hash Matching API til NCMEC for at hjælpe dem med at prioritere og gennemgå CyberTipline-indberetninger på en mere effektiv måde ved at give dem mulighed for at fokusere på de indberetninger, der involverer børn, som har brug for akut hjælp. 

Vi deler også signaler om seksuelt misbrug og udnyttelse af børn for at muliggøre fjernelse af CSAM i det bredere økosystem. Vi deler millioner af CSAM-hash-værdier med NCMEC's branchedatabase for hash-værdier, så andre udbydere også kan tilgå og bruge disse hash-værdier. Vi deltager også i Project Lantern, der er et program, som giver teknologivirksomheder mulighed for at dele relevante signaler med henblik på at bekæmpe seksuelt misbrug og seksuel udnyttelse på nettet på en sikker og ansvarlig måde, da det er åbenlyst, at en sådan misbrug kan optræde på tværs af forskellige platforme og tjenester.

Vi er også aktivt medlem af en række sammenslutninger såsom Technology Coalition, WeProtect Global Alliance og INHOPE, der samler virksomheder og NGO'er med henblik på at udvikle løsninger, der bekæmper udvekslingen af CSAM på nettet og forhindrer seksuel udnyttelse af børn. Google prioriterer deltagelse i disse sammenslutninger, og i vores arbejde med NGO'er såsom NCMEC og Thorn deler vi ud af vores ekspertise, udforsker den bedste praksis og tilegner os ny viden om de nyeste og vigtigste trusler mod børns sikkerhed.

Hvordan kan statslige myndigheder sende retslige anmodninger, som omhandler et CyberTip, til Google?

Når NCMEC modtager en indberetning, kan de videresende den til retshåndhævende myndigheder rundt omkring i verden. Politiet kan derefter anmode om yderligere oplysninger fra Google i forbindelse de retslige skridt (LERS, Law Enforcement Request System). For at imødekomme en sådan anmodning stiller Google et onlinesystem til rådighed, som giver verificerede statslige myndigheder mulighed for på sikker vis at indsende anmodninger om yderligere oplysninger. Disse myndigheder kan derefter se statussen for indsendte anmodninger ved hjælp af dette onlinesystem og downloade Googles svar på deres anmodning. Du kan få flere oplysninger om LERS eller konfigurere en LERS-konto på lers.google.com. Hvis du vil have flere oplysninger, kan du læse vores politikker vedrørende Googles håndtering af statslige anmodninger om brugeroplysninger.

 Hvordan kan jeg indberette indhold, som jeg formoder involverer CSAM?

Hvis du finder et link, et website eller andet indhold, der involverer seksuelt misbrug af børn, kan du rapportere det til politiet, NCMEC eller en relevant organisation i din region. Hvis du ser eller oplever upassende indhold eller adfærd, der involverer børn, i Googles produkter, kan du indberette det til os, bl.a. ved at indberette lovovertrædelser, der udgør en trussel for børn (f.eks. grooming, seksuel afpresning og andre former for seksuel udnyttelse af børn) i Google-produkter. Du kan hjælpe med at forhindre, at andre kontakter dit barn i Google-produkter, og filtrere det indhold, dit barn kan se, ved at justere dit barns Google-kontoindstillinger.

Hvilke teams gennemgår rapporter vedrørende indhold med seksuelt misbrug af børn?

Manuel gennemgang er en vigtig del af vores bestræbelser på at bekæmpe CSAM. Vores teammedlemmer har en masse erfaring inden for dette område takket være deres fortid inden for jura, beskyttelse af børn, interessegrupper, socialt arbejde, cyberundersøgelse m.m. De er oplært i både omfanget af vores politikker, og hvad der juridisk set udgør indhold med seksuelt misbrug af børn. Vores teams, der foretager manuelle gennemgange af indhold, har fået særlig træning og modtager støtte i forhold til deres psykiske velbefindende, så de kan varetage denne opgave. Du kan få flere oplysninger om, hvordan Google forholder sig til moderation af indhold, herunder hvordan vi støtter vores kontrollanter, her.

Hvilken periode dækker denne rapport?

De metrics, der vises her, repræsenterer data, der er indsamlet mellem kl. 0.00 PST den 1. januar til kl. 23.59 PDT den 30. juni og kl. 0.00 PDT den 1. juli til kl. 23.59 PST den 31. december, medmindre andet er angivet.
Hovedmenu
18372386053256061332
true
Søg i Hjælp
true
true
true
false
false