Hva er innhold som viser seksuelt misbruk av barn (CSAM)?
Hva gjør Google for å bekjempe innhold som viser seksuelt misbruk av barn (CSAM)?
Hvordan identifiserer Google innhold som viser seksuelt misbruk av barn (CSAM), på plattformen sin?
Vi er svært opptatt av å bekjempe seksuell utnyttelse av barn på nettet og bruker teknologi for å forhindre, oppdage og fjerne innhold som viser seksuelt misbruk av barn (CSAM), fra plattformene våre. Dette omfatter å bruke automatisk oppdagelse og menneskelig evaluering samt rapporter fra brukere og tredjeparter, for eksempel NGO-er. Vi bruker hash-matching, inkludert CSAI Match, til å oppdage kjent innhold som viser seksuelt misbruk av barn (CSAM). Vi bruker også klassifikatorer for maskinlæring til å oppdage innhold som viser seksuelt misbruk av barn (CSAM), og som vi aldri har sett før. Dette bekreftes deretter av de spesialiserte evalueringsteamene våre. Når det oppdages nytt innhold som viser seksuelt misbruk av barn (CSAM), styrker dette økosystemet for barns sikkerhet på flere måter. Vi kan identifisere barn som trenger hjelp, og vi kan legge til nye hash-verdier som gjør at vi kan oppdage enda mer kjent innhold som viser seksuelt misbruk av barn (CSAM). I Google har vi brukt klassifikatorene våre til å lage Content Safety API, som vi har gjort tilgjengelig for andre, slik at de kan prioritere støtende innhold for menneskelig evaluering.
Både CSAI Match og Content Safety API er tilgjengelig for kvalifiserte enheter som ønsker å bekjempe misbruk på plattformene sine – se her for å få mer informasjon.
Hva gjør Google når det oppdages innhold som viser seksuelt misbruk av barn (CSAM), på plattformen sin?
NCMEC er et amerikansk utvekslings- og rapporteringssenter for saker som omhandler utnyttelse av barn. Når NCMEC får en rapport, kan de videresende den til politimyndigheter over hele verden.
Hva er en CyberTipline-rapport og hva slags informasjon inneholder den?
Når Google blir oppmerksomme på noe som fremstår som CSAM, rapporterer vi det til NCMEC. Disse rapportene kalles vanligvis CyberTipline-rapporter eller CyberTips. I tillegg prøver vi å identifisere tilfeller som innebærer fysisk misbruk av mindreårige, produksjon av innhold som viser seksuelt misbruk av barn (CSAM), eller menneskehandel med barn. I slike tilfeller sender vi en ekstra CyberTip-rapport til NCMEC, slik at de kan prioritere saken. Rapporter som sendes til NCMEC, kan inneholde informasjon som identifiserer brukeren og det mindreårige offeret. I tillegg kan det inkludere innholdet som bryter retningslinjene, og/eller andre nyttige kontekstdata.
Nedenfor ser du eksempler på virkningen av CyperTip-rapporter Google har sendt inn. De gir et overblikk over de mange rapportene vi sender inn, men dette er ikke noen fullstendig oversikt.
- Et Google Cybertip rapporterte en mengde innhold som viser seksuelt misbruk av barn (CSAM), mer konkret barneskolebarn i et klasserom. Noe av det rapporterte innholdet som viser seksuelt misbruk av barn (CSAM), var nytt for Google, og det så ut til å være produsert av eieren av Google-kontoen. NCMEC videresendte rapporten til politimyndighetene. Dette førte til at to mindreårige barn som var avbildet i innholdet (CSAM), ble identifisert og fikk hjelp.
- Et Google Cybertip rapporterte om at en kontoeier ba om og produserte innhold som viser seksuelt misbruk av barn (CSAM). Denne personen ba om å få laget en rekke videoer som viste fysisk misbruk av flere titalls mindreårige gutter, i bytte mot penger. NCMEC videresendte rapporten til politimyndighetene. Kontoeieren ble dømt for produksjon av innhold som viser seksuelt misbruk av barn (CSAM), og flere titalls barn ble identifisert og beskyttet mot videre misbruk.
- Et Google CyberTip rapporterte om ett stykke kjent innhold som viser seksuelt misbruk av barn (CSAM), som førte til at kontoeieren ble arrestert. Vedkommende var ifølge politimyndighetene i besittelse av mye mer innhold som viser seksuelt misbruk av barn (CSAM), og var direkte involvert i fysisk misbruk av mindreårige som personen hadde omsorg for. Vedkommende hadde også latt andre misbruke de mindreårige. På grunn av Googles, NCMECs og politimyndighetenes innsats ble tre barn reddet fra seksuelt misbruk.
- Et Google Cybertip rapporterte om innhold som viser seksuelt misbruk av barn (CSAM), som var produsert av eieren av Google-kontoen, og som kontoeieren hadde bedt om fra mindreårige vedkommende hadde tilgang til på nettet. Kontoeieren ble senere arrestert, og politimyndighetene fastslo at vedkommende var i en tillitsposisjon som medisinsk fagperson. Kontoeieren brukte denne posisjonen til å misbruke pasientene sine og hadde direkte tilgang til mindreårige på nettet, som vedkommende ba om seksuelt betont innhold fra.
Hvordan bekjemper Google risikoen for innhold som viser seksuelt misbruk av barn (CSAM), i forbindelse med generativ AI (GenAI)?
AI-generert innhold som viser seksuelt misbruk av barn (CSAM), eller datagenererte bilder som viser seksuelt misbruk av barn, er en trussel Google tar svært alvorlig. Arbeidet vårt med å oppdage, fjerne og rapportere innhold som viser seksuelt misbruk av barn (CSAM), har alltid omfattet innhold som er i strid med retningslinjene og involverer faktiske mindreårige, modifiserte bilder av identifiserbare mindreårige som deltar i seksuelt eksplisitt atferd, og datagenererte bilder som ikke kan skilles fra faktiske mindreårige som deltar i slik atferd.
Google legger stor vekt på barns sikkerhet i utarbeidingen av våre egne generative AI-modeller og -produkter. Vi følger Googles prinsipper om ansvarlig generativ AI når det gjelder å beskytte alle Googles offentlig tilgjengelige modeller samt tjenestene som er bygget på disse modellene.
Vi implementerer en rekke tiltak for beskyttelse av barn for modellene og produktene våre som bruker generativ AI. Dette kan omfatte beskyttelse mot tilstedeværelse av innhold som viser seksuelt misbruk av barn (CSAM), i opplæringsdataene for modellene, beskyttelse mot forespørsler om oppretting og visning av innhold som viser seksuelt misbruk av barn (CSAM), og beskyttelse mot resultater som er i strid med retningslinjene. Vi utfører også robuste tester knyttet til barns sikkerhet på modellene våre før den offentlige lanseringen for å forstå og redusere muligheten for at det genereres innhold som viser seksuelt misbruk av barn (CSAM).
Vi samarbeider også med andre i økosystemet for barns sikkerhet – inkludert Technology Coalition og NGO-er for barns sikkerhet – for å dele og forstå anbefalte fremgangsmåter etter hvert som denne teknologien videreutvikles.
Hva gjør Google for å forhindre at brukere benytter Søk til å lete etter innhold som viser seksuelt misbruk av barn (CSAM)?
Hvordan bidrar Google til økosystemet for barns sikkerhet og bekjempelsen av innhold som viser seksuelt misbruk av barn (CSAM)?
Googles team for barns sikkerhet utvikler teknologi som på en nøyaktig måte oppdager, rapporterer og fjerner innhold som viser seksuelt misbruk av barn (CSAM), for å beskytte brukerne våre og forhindre at barn blir skadet i Google-produkter. Vi har utviklet verktøyet for barns sikkerhet for å sikre at økosystemet som et hele også har tilgang til denne kraftige teknologien, og for å forhindre at innhold som viser seksuelt misbruk av barn, spres på nettet. Vi leverer i tillegg Googles Hash Matching API til NCMEC, slik at de kan prioritere og gjennomgå CyberTipline-rapporter mer effektivt. På den måten kan de fokusere på de sakene der barn trenger umiddelbar hjelp.
Vi deler også signaler om seksuelt misbruk og utnyttelse av barn for å legge til rette for fjerning av innhold som viser seksuelt misbruk av barn (CSAM), fra økosystemet som et hele. Vi deler millioner av hash-verdier for innhold som vises seksuelt misbruk av barn (CSAM), med NCMECs bransjedatabase over hash-verdier, slik at andre leverandører også kan se og bruke disse hash-verdiene. Vi har også registrert oss for Project Lantern, som er et program teknologiselskaper kan bruke for å dele relevante signaler for å bekjempe seksuelle overgrep og utnyttelse på nettet på en sikker og ansvarlig måte, med viten om at slikt misbruk kan forekomme på flere plattformer og tjenester.
Vi er også aktivt medlem i en rekke forbund som Technology Coalition, WeProtect Global Alliance og INHOPE. Disse forbundene samler selskaper og NGO-er i arbeidet om å utvikle løsninger som forhindrer seksuell utnyttelse av barn og utveksling av innhold som viser seksuelt misbruk av barn (CSAM), på nettet. Google prioriterer å delta i slike forbund, og gjennom samarbeidet vårt med NGO-er som NCMEC og Thorn deler vi ekspertisen vår, utforsker anbefalte fremgangsmåter og finner ut mer om de nyeste truslene mot viktige saker som angår barns sikkerhet.