Vanlige spørsmål om Googles tiltak mot innhold som viser seksuelt misbruk av barn på nettet

Hva er innhold som viser seksuelt misbruk av barn (CSAM)?

CSAM står for Child Sexual Abuse Material (innhold som viser seksuelt misbruk av barn). Det består av visuelle fremstillinger, inkludert, men ikke begrenset til, fotografier, videoer og datagenererte bilder som omfatter mindreårige involvert i seksuelt eksplisitt atferd. Vi anerkjenner at innhold som viser seksuelt misbruk av barn (CSAM), ikke er det samme som innhold som viser nakne barn, og retningslinjene og systemene våre er utviklet for å gjenkjenne og skille mellom bilder av barn som for eksempel leker i badekaret eller hagen, som ikke er av seksuell art, og som ikke er innhold som viser seksuelt misbruk av barn (CSAM), og bilder som omfatter seksuelle overgrep mot barn eller seksuell fremstilling av kjønnsorganer og intime områder, som bryter global lov og rett. Det finnes i tillegg andre typer uanstendige eller utnyttende bilder som viser eller representerer barn, som for eksempel tegnefilmer som fremstiller seksuelt misbruk av barn, eller forsøk på humoristiske fremstillinger av seksuell utnyttelse av barn. Slike bilder kan også være i strid med global lov og rett.

Hva gjør Google for å bekjempe innhold som viser seksuelt misbruk av barn (CSAM)?

Google jobber for å bekjempe innhold som viser seksuelt misbruk av barn (CSAM), på nettet og forhindre at plattformene våre brukes til å lage, lagre eller spre slikt materiale. Vi bruker omfattende ressurser – deriblant teknologi, personell og tid – på å oppdage, forhindre, fjerne og rapportere innhold og atferd som utnytter barn seksuelt. Du finner mer informasjon om hvordan vi beskytter barn og familier, i Google Sikkerhetssenter, retningslinjene for brukere av YouTube, Protecting Children-nettstedet vårt og bloggen vår om hvordan vi finner, fjerner og rapporterer innhold som viser seksuelt misbruk av barn (CSAM).

Hvordan identifiserer Google innhold som viser seksuelt misbruk av barn (CSAM), på plattformen sin?

Vi er svært opptatt av å bekjempe seksuell utnyttelse av barn på nettet og bruker teknologi for å forhindre, oppdage og fjerne innhold som viser seksuelt misbruk av barn (CSAM), fra plattformene våre. Dette omfatter å bruke automatisk oppdagelse og menneskelig evaluering samt rapporter fra brukere og tredjeparter, for eksempel NGO-er. Vi bruker hash-matching, inkludert CSAI Match, til å oppdage kjent innhold som viser seksuelt misbruk av barn (CSAM).  Vi bruker også klassifikatorer for maskinlæring til å oppdage innhold som viser seksuelt misbruk av barn (CSAM), og som vi aldri har sett før. Dette bekreftes deretter av de spesialiserte evalueringsteamene våre. Når det oppdages nytt innhold som viser seksuelt misbruk av barn (CSAM), hjelper dette økosystemet for barns sikkerhet på flere måter. Vi kan identifisere barn som trenger hjelp, og vi kan legge til nye hash-verdier som gjør at vi kan oppdage enda mer kjent innhold som viser seksuelt misbruk av barn (CSAM). I Google har vi brukt klassifikatorene våre til å lage Content Safety API, som vi har gjort tilgjengelig for andre, slik at de kan prioritere støtende innhold for menneskelig evaluering. 


Både CSAI Match og Content Safety API er tilgjengelig for kvalifiserte enheter som ønsker å bekjempe misbruk på plattformene sine – se her for å få mer informasjon.

Hva gjør Google når det oppdages innhold som viser seksuelt misbruk av barn (CSAM), på plattformen deres?

Når vi oppdager innhold som viser seksuelt misbruk av barn (CSAM), på plattformene våre, fjerner vi det. I tillegg sender vi en «CyberTipline»-rapport til NCMEC, og vi kan gi en advarsel, begrense en kontos tilgang til enkelte Google-produkter eller -tjenester eller deaktivere Google-kontoen. Dette avhenger av bruddets art og alvorlighetsgrad. Vi kan også gjennomgå Google-kontoen ytterligere for å identifisere mer innhold som viser seksuelt misbruk av barn (CSAM), og/eller for å sikre at vi tar hensyn til den relevante konteksten for å sikre at vi iverksetter egnede og rimelige sanksjoner for materialet som er identifisert i Google-kontoen.

 

NCMEC er et amerikansk utvekslings- og rapporteringssenter for saker som omhandler utnyttelse av barn. Når NCMEC får en rapport, kan de videresende den til politimyndigheter over hele verden.

Hva er en CyberTipline-rapport og hva slags informasjon inneholder den?

Når Google blir oppmerksomme på noe som fremstår som CSAM, rapporterer vi det til NCMEC. Disse rapportene kalles vanligvis CyberTipline-rapporter eller CyberTips. I tillegg prøver vi å identifisere tilfeller som innebærer fysisk misbruk av mindreårige, produksjon av innhold som viser seksuelt misbruk av barn (CSAM), eller menneskehandel med barn. I slike tilfeller sender vi en ekstra CyberTip-rapport til NCMEC, slik at de kan prioritere saken. Rapporter som sendes til NCMEC, kan inneholde informasjon som identifiserer brukeren og det mindreårige offeret. I tillegg kan det inkludere innholdet som bryter retningslinjene, og/eller andre nyttige kontekstdata.

Nedenfor ser du eksempler på virkningen av CyperTip-rapporter Google har sendt inn. De gir et overblikk over de mange rapportene vi sender inn, men dette er ikke noen fullstendig oversikt.  

  • Et Google Cybertip rapporterte en mengde innhold som viser seksuelt misbruk av barn (CSAM), mer konkret barneskolebarn i et klasserom. Noe av det rapporterte innholdet som viser seksuelt misbruk av barn (CSAM), var nytt for Google, og det så ut til å være produsert av eieren av Google-kontoen. NCMEC videresendte rapporten til politimyndighetene. Dette førte til at to mindreårige barn i innholdet som viser seksuelt misbruk av barn (CSAM), ble identifisert og fikk hjelp.  
  • Et Google Cybertip rapporterte om at en kontoeier ba om og produserte innhold som viser seksuelt misbruk av barn (CSAM). Denne personen ba om å få laget en rekke videoer som viste fysisk misbruk av flere titalls mindreårige gutter, i bytte mot penger. NCMEC videresendte rapporten til politimyndighetene. Kontoeieren ble dømt for produksjon av innhold som viser seksuelt misbruk av barn (CSAM), og flere titalls barn ble identifisert og beskyttet mot videre misbruk.
  • Et Google CyberTip rapporterte om ett stykke kjent innhold som viser seksuelt misbruk av barn (CSAM), som førte til at kontoeieren ble arrestert. Vedkommende var ifølge politimyndighetene i besittelse av mye mer innhold som viser seksuelt misbruk av barn (CSAM), og var direkte involvert i fysisk misbruk av mindreårige som personen hadde omsorg for. Vedkommende hadde også latt andre misbruke de mindreårige. På grunn av Googles, NCMECs og politimyndighetenes innsats ble tre barn reddet fra seksuelt misbruk.
  • Et Google Cybertip rapporterte om innhold som viser seksuelt misbruk av barn (CSAM), som var produsert av eieren av Google-kontoen, og som kontoeieren hadde bedt om fra mindreårige vedkommende hadde tilgang til på nettet. Kontoeieren ble senere arrestert, og politimyndighetene fastslo at vedkommende var i en tillitsposisjon som medisinsk fagperson. Kontoeieren brukte denne posisjonen til å misbruke pasientene sine og hadde direkte tilgang til mindreårige på nettet, som vedkommende ba om innhold som viser seksuelt misbruk av barn (CSAM).

Hvordan bekjemper Google risikoen for innhold som viser seksuelt misbruk av barn (CSAM), i forbindelse med generativ AI (GenAI)?

AI-generert innhold som viser seksuelt misbruk av barn (CSAM), eller datagenererte bilder som viser seksuelt misbruk av barn, er en trussel Google tar svært alvorlig. Arbeidet vårt med å oppdage, fjerne og rapportere innhold som viser seksuelt misbruk av barn (CSAM), har alltid omfattet innhold som er i strid med retningslinjene og involverer faktiske mindreårige, modifiserte bilder av identifiserbare mindreårige som deltar i seksuelt eksplisitt atferd, og datagenererte bilder som ikke kan skilles fra faktiske mindreårige som deltar i slik atferd.

Google legger stor vekt på barns sikkerhet i utarbeidingen av våre egne generative AI-modeller og -produkter. Vi følger Googles prinsipper om ansvarlig generativ AI når det gjelder å beskytte alle Googles offentlig tilgjengelige modeller samt tjenestene som er bygget på disse modellene.

Vi implementerer en rekke tiltak for beskyttelse av barn for modellene og produktene våre som bruker generativ AI. Dette kan omfatte beskyttelse mot tilstedeværelse av innhold som viser seksuelt misbruk av barn (CSAM), i opplæringsdataene for modellene, beskyttelse mot forespørsler om oppretting og visning av innhold som viser seksuelt misbruk av barn (CSAM), og beskyttelse mot resultater som er i strid med retningslinjene.  Vi utfører også robuste tester knyttet til barns sikkerhet på modellene våre før den offentlige lanseringen for å forstå og redusere muligheten for at det genereres innhold som viser seksuelt misbruk av barn (CSAM).

Vi samarbeider også med andre i økosystemet for barns sikkerhet – inkludert Technology Coalition og NGO-er for barns sikkerhet – for å dele og forstå anbefalte fremgangsmåter etter hvert som denne teknologien videreutvikles.

Hva gjør Google for å forhindre at brukere benytter Søk til å lete etter innhold som viser seksuelt misbruk av barn (CSAM)?

Google har sikkerhetstiltak som skal forhindre at brukere kan lete etter innhold som viser seksuelt misbruk av barn (CSAM), på Søk. Vi blokkerer søkeresultater som fører til innhold som viser seksuelt misbruk av barn, som ser ut til å på en seksuell måte gjøre barn til ofre, sette barn i fare eller på annen måte utnytte barn. Vi oppdaterer hele tiden algoritmene våre for å bekjempe disse truslene, som stadig utvikler seg. Vi bruker ekstra sikkerhetstiltak på søk som vi forstår leter etter CSAM. Vi filtrerer ut eksplisitt seksuelle resultater for søk som ser ut til å være etter innhold som viser seksuelt misbruk av barn (CSAM). For søk etter ikke-barnevennlig innhold for voksne, viser ikke Søk bilder som inneholder barn. Dette er for å bryte assosiasjonen mellom barn og seksuelt innhold. I tillegg til at vi fjerner innhold som viser seksuelt misbruk av barn (CSAM), fra Søk-indeksen når vi oppdager det, nedgraderer vi også alt innhold fra nettsteder hvor en høy andel av innholdet viser seksuelt misbruk av barn (CSAM). I mange land blir brukere som søker etter innhold som er tydelig tilknyttet innhold som viser seksuelt misbruk av barn (CSAM), vist en advarsel om at bilder som viser seksuelt misbruk av barn, er ulovlig. Det vises også informasjon om hvordan slikt innhold kan rapporteres til pålitelige organisasjoner. Vi ser at når disse advarslene vises, er det mindre sannsynlig at brukerne fortsetter å lete etter slikt innhold.

Hvordan bidrar Google til økosystemet for barns sikkerhet og bekjempelsen av innhold som viser seksuelt misbruk av barn (CSAM)?

Googles team for barns sikkerhet utvikler teknologi som på en nøyaktig måte oppdager, rapporterer og fjerner innhold som viser seksuelt misbruk av barn (CSAM), for å beskytte brukerne våre og forhindre at barn blir skadet i Google-produkter. Vi har utviklet verktøyet for barns sikkerhet for å sikre at økosystemet som et hele også har tilgang til denne kraftige teknologien, og for å forhindre at innhold som viser seksuelt misbruk av barn, spres på nettet. Vi leverer i tillegg Googles Hash Matching API til NCMEC, slik at de kan prioritere og gjennomgå CyberTipline-rapporter mer effektivt. På den måten kan de fokusere på de sakene der barn trenger umiddelbar hjelp. 

Vi deler også signaler om seksuelt misbruk og utnyttelse av barn for å legge til rette for fjerning av innhold som viser seksuelt misbruk av barn (CSAM), fra økosystemet som et hele. Vi deler millioner av hash-verdier for innhold som vises seksuelt misbruk av barn (CSAM), med NCMECs bransjedatabase over hash-verdier, slik at andre leverandører også kan se og bruke disse hash-verdiene. Vi har også registrert oss for Project Lantern, som er et program teknologiselskaper kan bruke for å dele relevante signaler for å bekjempe seksuelle overgrep og utnyttelse på nettet på en sikker og ansvarlig måte, med viten om at slikt misbruk kan forekomme på flere plattformer og tjenester.

Vi er også aktivt medlem i en rekke forbund som Technology Coalition, WeProtect Global Alliance og INHOPE. Disse forbundene samler selskaper og NGO-er i arbeidet om å utvikle løsninger som forhindrer seksuell utnyttelse av barn og utveksling av innhold som viser seksuelt misbruk av barn (CSAM), på nettet. Google prioriterer å delta i slike forbund, og gjennom samarbeidet vårt med NGO-er som NCMEC og Thorn deler vi ekspertisen vår, utforsker anbefalte fremgangsmåter og finner ut mer om de nyeste truslene mot viktige saker som angår barns sikkerhet.

Hvordan kan offentlige organer sende juridiske forespørsler om et CyberTip til Google?

Når NCMEC får en rapport, kan de videresende den til politimyndigheter over hele verden. Politimyndigheter kan deretter sende juridiske prosesser til Google for å be om mer informasjon (Law Enforcement Request System – LERS). For å kunne behandle slike forespørsler har Google et nettbasert system der bekreftede offentlige organer kan sende inn forespørsler om mer informasjon på en sikker måte. Disse myndighetene kan deretter se statusen for innsendte forespørsler i dette nettsystemet og til slutt laste ned Googles svar på forespørselen. Hvis du vil ha mer informasjon om LERS eller vil opprette en LERS-konto, kan du gå til lers.google.com. Du finner mer informasjon i retningslinjene våre om hvordan Google håndterer forespørsler fra myndighetene om brukerinformasjon.

 Hvordan kan jeg rapportere mistenkt innhold som viser seksuelt misbruk av barn (CSAM)?

Hvis du finner en link, et nettsted eller annet innhold som utgjør innhold som viser seksuelt misbruk av barn (CSAM), kan du rapportere det til politiet, NCMEC eller en relevant organisasjon i området du holder til i. Hvis du ser eller opplever upassende innhold eller atferd rettet mot barn i Google-produkter, kan du rapportere dette til oss, deriblant ved å rapportere barnemishandling (f.eks. barneforførelse, seksuell utpressing eller andre former for seksuell utnyttelse av barn) i Google-produkter. Du kan bidra til å forhindre at folk kontakter barnet ditt i Google-produkter, og du kan filtrere innholdet barnet ditt ser, ved å administrere barnets Google-kontoinnstillinger.

Hvilke team gjennomgår CSAM-rapporter?

Manuell evaluering er en avgjørende del av arbeidet vårt mot innhold som viser seksuelt misbruk av barn (CSAM). Teammedlemmene har lang erfaring med slikt arbeid og bakgrunn fra blant annet jus, barnevern og barns rettigheter, sosialarbeid og cyberetterforskning. De har fått spesialopplæring i retningslinjene våre og hva som juridisk sett utgjør innhold som viser seksuelt misbruk av barn. Evalueringsteamene har fått spesialopplæring og får psykologisk støtte. Se her hvis du vil finne ut mer om Googles tilnærming til innholdsmoderering, inkludert hvilken psykologisk støtte evalueringsteamene får.

Hvilken tidsperiode dekker denne rapporten?

Verdiene som vises her, representerer data som er samlet inn fra kl. 00.00 PST 1. januar til kl. 23.59 PDT 30. juni og kl. 00.00 PDT 1. juli til kl. 23.59 PST 31. desember, med mindre annet er oppgitt.
Hovedmeny
16480388455107969925
true
Søk i brukerstøtte
true
true
true
false
false