Usein kysyttyä Googlen työstä lasten seksuaalista hyväksikäyttöä kuvaavan materiaalin estämiseksi

Mitä CSAM tarkoittaa?

CSAM tarkoittaa lasten seksuaalista hyväksikäyttöä kuvaavaa materiaalia (child sexual abuse material). Materiaali koostuu mistä tahansa visuaalisista esityksistä, mukaan luettuna kuvat, videot tai tietokoneen luomat kuvat, joissa alaikäistä käytetään seksuaaliseen kanssakäymiseen. Ymmärrämme, että CSAM ei tarkoita samaa kuin lasten alastomuus. Siksi käytäntömme ja järjestelmämme on erityisesti suunniteltu tunnistamaan harmittomat kuvat esimerkiksi ammeessa tai pihalla leikkivistä lapsista ja erottamaan ne kuvista, jotka ovat seksuaalissävytteisiä ja CSAM-materiaalia, kuten kuvat lapsen seksuaalisesta hyväksikäytöstä tai muuten siveettömät kuvat sukupuolielimistä ja intiimialueista, jotka lait ympäri maailmaa kieltävät. On myös muunlaisia sopimatonta tai hyväksikäyttöön liittyvää kuvamateriaalia, joka sisältää tai esittää lapsia, esimerkiksi piirrettyjä kuvauksia lapsen seksuaalisesta hyväksikäytöstä tai yrityksiä esittää tällaista humoristisesti. Kuvat voivat myös rikkoa lakeja ympäri maailmaa.

Mikä on Googlen toimintatapa CSAM:n torjunnassa?

Google on sitoutunut torjumaan CSAM-materiaalia verkossa ja estämään alustojensa käytön tämän materiaalin luomiseen, säilyttämiseen tai levittämiseen. Käytämme huomattavan määrän resursseja – teknologiaa, työntekijöitä ja aikaa – lasten seksuaaliseen hyväksikäyttöön liittyvän sisällön ja toiminnan tunnistamiseen, estämiseen ja poistamiseen sekä sisällöstä raportoimiseen. Lue lisää työstämme lasten ja perheiden suojelemiseksi Googlen turvallisuuskeskuksesta, YouTuben yhteisösäännöistä, lasten suojelulle omistetulta sivustoltamme ja blogistamme, jossa kerrotaan CSAM:n havaitsemisesta ja poistamisesta sekä siitä raportoimisesta.

Miten Google tunnistaa CSAM:n alustoillaan?

Panostamme paljon verkossa esiintyvän lasten seksuaalisen hyväksikäytön torjuntaan ja käytämme teknologiaa CSAM:n estämiseen, havaitsemiseen ja poistamiseen alustoiltamme. Käytämme esimerkiksi automaattista tunnistusta, ihmisten tekemää tarkastusta ja käyttäjien ja kolmansien osapuolten (esim. järjestöjen) ilmoituksia. Tunnistamme CSAM:ia vertailemalla tiivisteitä esimerkiksi YouTuben CSAI Matchilla.  Käytämme myös koneoppimisen luokittelukriteereitä löytääksemme CSAM-materiaalia, jota ei ole ennen havaittu. Tämän jälkeen asiantuntijoista koostuvat tarkastustiimimme vahvistavat, että kyseessä on CSAM. Aiemmin tuntemattoman CSAM:n havaitseminen tukee lasten suojelun ekosysteemiä useilla tavoilla. Sen ansiosta voidaan esimerkiksi tunnistaa lapsiuhrit, jotka tarvitsevat suojelua, ja laajentaa mahdollisuuksiamme tunnistaa tunnettua CSAM-sisältöä. Google on luonut luokittelukriteerien avulla Content Safety APIn. Google tarjoaa sen muiden yhteisöjen käyttöön, jotta ne voivat priorisoida hyväksikäyttöä kuvaavan sisällön käsittelyn ihmisen tekemissä tarkastuksissa. 


Sekä CSAI Match että Content Safety API ovat saatavilla asianmukaisille yhteisöille, jotka haluavat taistella hyväksikäyttöä vastaan alustoillaan. Lue lisätietoja täältä.

Mitä Google tekee havaitessaan CSAM-materiaalia alustallaan?

Kun löydämme CSAM-materiaalia alustoiltamme, poistamme sen ja teemme CyberTipline-raportin NCMEC:lle. Rikkomuksen luonteesta ja vakavuudesta riippuen saatamme myös lähettää varoituksen, rajoittaa tilin pääsyä tiettyihin Googlen tuotteisiin tai palveluihin tai poistaa Google-tilin käytöstä. Saatamme myös tehdä Google-tilin lisätarkastuksen, jotta voimme tunnistaa muuta CSAM-materiaalia tai varmistaa, että otamme asianmukaisen kontekstin huomioon, jotta seuraamukset varmasti ovat asianmukaisia ja oikein suhteutettuja Google-tilillä havaitun materiaalin osalta.

 

Yhdysvaltalaisessa NCMEC-järjestössä kootaan informaatiota lasten hyväksikäyttöön liittyvistä ongelmista sekä raportoidaan niistä. Saatuaan raportin NCMEC voi lähettää sen edelleen lainvalvontaviranomaisille eri puolilla maailmaa.

Mikä on CyberTipline-raportti, ja minkälaista tietoa se sisältää?

Kun Google saa tiedon CSAM:ltä vaikuttavasta materiaalista, teemme siitä raportin NCMEC:lle. Nämä raportit tunnetaan yleisesti CyberTipLine-raportteina tai CyberTipseinä. Yritämme myös tunnistaa tapauksia, joissa on pahoinpidelty alaikäisiä fyysisesti, tuotettu CSAM-materiaalia tai joissa lapset ovat joutuneet ihmiskaupan kohteeksi. Näissä tapauksissa lähetämme NCMEC:lle CyberTip-lisäraportin auttaaksemme asian priorisoinnissa. NCMEC:lle lähetetty raportti voi sisältää tietoja, joilla käyttäjä tai alaikäinen uhri voidaan tunnistaa, ja sääntöjen vastaisen sisällön tai muita hyödyllisiä kontekstisidonnaisia tietoja.

Alla on esimerkkejä Googlen lähettämien CyberTip-raporttien todellisista vaikutuksista. Esimerkeistä saa käsityksen tekemiemme raporttien laajasta kirjosta, mutta ne eivät ole kattavia.  

  • Googlen CyberTipillä raportoitiin useista CSAM-sisältökohteista, joissa oli alakouluikäisiä lapsia luokkahuoneessa. Google ei ollut havainnut osaa raportoidusta CSAM-sisällöstä aiemmin. Sisältö vaikutti olevan kyseisen Google-tilin omistajan luomaa. NCMEC välitti raportin lainvalvontaviranomaiselle. Tämä johti kahden raportoidussa CSAM-kuvamateriaalissa esiintyneen alaikäisen lapsen tunnistamiseen ja turvaamiseen.  
  • Googlen CyberTipillä raportoitiin CSAM-sisällön pyytämisestä ja tuottamisesta. Tekijä oli tilin omistaja, joka pyysi useita videoita alaikäisten poikien fyysisestä pahoinpitelystä rahaa vastaan. NCMEC välitti raportin lainvalvontaviranomaisille. Tilin omistaja sai tuomion CSAM:n luomisesta. Kymmeniä lapsia tunnistettiin ja turvattiin pahoinpitelyltä jatkossa.
  • Googlen CyberTipillä raportoitiin yksittäisestä tunnetusta CSAM-sisältökohteesta, joka kohdisti epäilyt tilin omistajaan. Lainvalvontaviranomainen löysi hänen hallustaan paljon enemmän CSAM-materiaalia ja totesi hänen liittyvän suoraan kahden alaikäisen, hänen hoidossaan olleen lapsen fyysiseen pahoinpitelyyn sekä kyseisten lasten altistamiseen muiden pahoinpideltäviksi.  Googlen, NCMEC:n ja lainvalvontaviranomaisen toimien seurauksena kolme lasta pelastettiin seksuaaliselta hyväksikäytöltä.
  • Googlen CyberTipillä raportoitiin CSAM-sisällöstä, joka oli Google-tilin omistajan tuottamaa. Materiaali oli saatu alaikäisiltä, joihin tilin omistaja oli yhteydessä verkossa. Tilin omistaja otettiin myöhemmin kiinni. Lainvalvontaviranomainen katsoi hänen olevan luottamusasemassa lääketieteen ammattilaisena. Hän oli käyttänyt väärin asemaansa ja hyväksikäyttänyt hoitamiaan potilaita. Hänellä oli myös verkossa suora yhteys alaikäisiin, joilta hän sai materiaalia CSAM-sisältöön.

Miten Google torjuu CSAM:n riskejä generatiivisen tekoälyn osalta?

Tekoälyn luoma CSAM tai tietokoneen luomat kuvat lasten seksuaalisesta hyväksikäytöstä ovat uhka, johon Google suhtautuu erittäin vakavasti. CSAM:n havaitsemiseen ja poistamiseen sekä siitä raportoimiseen liittyvä työmme on aina sisältänyt sääntöjen vastaisen sisällön, jossa on mukana todellisia alaikäisiä, muokattuja kuvia tunnistettavasta alaikäisestä osallisena seksuaalisessa kanssakäymisessä sekä tietokoneen luomia kuvia tällaisesta toiminnasta, jossa on mukana alaikäisiä, joita ei voi erottaa oikeasta ihmisestä.

Google kiinnittää erityistä huomiota lasten turvallisuuteen luodessaan omia generatiivisen tekoälyn malleja ja tuotteita. Noudatamme Googlen vastuullisen generatiivisen tekoälyn eettisiä periaatteita suojatessamme kaikkia Googlen julkisesti saatavilla olevia malleja ja niiden päälle rakennettuja palveluita.

Käytämme generatiivisen tekoälyn malleissa ja tuotteissa useita erilaisia lasten turvallisuuteen liittyviä suojausmekaniikkoja. Tämä voi tarkoittaa esimerkiksi suojautumista CSAM:ää vastaan malliemme perustana olevassa koulutusdatassa, CSAM-sisällön hakemiseen ja tuottamiseen liittyvien kehotteiden varalta sekä sääntöjen vastaisia tuotoksia vastaan. Testaamme malliemme turvallisuutta lasten osalta ennen niiden yleistä julkaisua, jotta voimme ymmärtää CSAM:n luomiseen liittyvät riskit ja pienentää niitä.

Teemme yhteistyötä myös muiden lasten turvallisuuden ekosysteemin toimijoiden (esimerkiksi Technology Coalitionin ja lasten turvallisuuteen keskittyvien kansalaisjärjestöjen) kanssa, jotta voimme jakaa ja ymmärtää parhaita käytäntöjä teknologian kehittyessä.

Miten Google pyrkii estämään CSAM-materiaalin etsimisen Hausta?

Googlen suunnittelutyön lähtökohtana on turvallisuus. Näin pyritään estämään käyttäjiä etsimästä CSAM-materiaalia. Käytäntönämme on estää hakutulokset, jos ne johtavat lasten seksuaalista hyväksikäyttöä kuvaavaan materiaaliin, joka vaikuttaa altistavan lapsia seksuaalisen hyväksikäytön uhreiksi, vaarantavan lapsia tai muuten käyttävän lapsia hyväksi. Päivitämme algoritmejamme jatkuvasti näiden kehittyvien uhkien torjumiseksi. Hakuihin, joiden tulkitaan etsivän CSAM-sisältöä, kohdistuu ylimääräisiä suojaustoimia. Suodatamme avoimen seksuaaliset tulokset, jos hakulausekkeen katsotaan tähtäävän CSAM-sisältöön. Jos hakukyselyn kohteena on vain aikuisille tarkoitettu sisältö, Haku ei näytä kuvia, joissa on lapsia, jotta lapsia ja seksuaalista sisältöä ei yhdistettäisi toisiinsa. Sen lisäksi, että CSAM-sisältö poistetaan havaittaessa Haun hakemistosta, huononnamme sen lisäksi kaikkien sellaisten sivustojen sijoituksen, joilla on paljon CSAM-sisältöä. Monissa maissa selkeästi CSAM-sisältöön liittyvillä sanoilla hakevat käyttäjät näkevät varoituksen. Siinä kerrotaan, että kuvat lasten seksuaalisesta hyväksikäytöstä ovat laittomia, ja annetaan ohjeet sisällöstä raportoimiseen luotetuille organisaatioille. Olemme havainneet, että nämä varoitukset nähtyään käyttäjät jatkavat harvemmin kyseisen materiaalin etsimistä.

Miten Google tukee lasten turvallisuuden ekosysteemiä CSAM:n vastaisissa toimissa?

Googlen lasten turvallisuuteen erikoistunut tiimi kehittää teknologiaa, jolla voidaan havaita CSAM-materiaalia, raportoida siitä ja poistaa sitä käyttäjiemme suojelemiseksi ja lasten turvaamiseksi Googlen tuotteissa. Kehitimme lasten turvallisuutta suojaavat työkalut varmistaaksemme, että tämä tehokas teknologia on myös laajemman ekosysteemin käytettävissä, ja jotta voimme auttaa estämään lasten seksuaalista hyväksikäyttöä kuvaavan materiaalin leviämistä verkossa. Lisäksi tarjoamme NCMEC:lle Googlen Hash Matching APIn, jonka avulla CyperTipline-raporttien priorisointi ja tarkastaminen on tehokkaampaa. Tällöin on mahdollista keskittyä raportteihin, joissa mainitut lapset tarvitsevat apua välittömästi. 

Jaamme myös signaaleja lasten seksuaalisesta hyväksikäytöstä, jotta CSAM voidaan poistaa laajemmasta ekosysteemistä. Jaamme miljoonia CSAM-tiivisteitä NCMEC:n tiivistetietokannalle, jotta myös muut palveluntarjoajat voivat käyttää niitä. Olemme myös liittyneet Project Lantern ‐ohjelmaan, jonka kautta teknologiayritykset voivat jakaa relevantteja signaaleja seksuaalisen hyväksikäytön torjumiseksi verkossa turvallisesti ja vastuullisesti, koska ymmärrämme, että tällaista hyväksikäyttöä voi esiintyä eri alustoilla ja palveluissa.

Lisäksi olemme aktiivinen jäsen useissa liittoumissa. Tällaisia ovat esimerkiksi Technology Coalition, WeProtect Global Alliance ja INHOPE. Ne tuovat yhteen yrityksiä ja kansalaisjärjestöjä, jotka pyrkivät kehittämään ratkaisuja CSAM:n jakamisen ja lasten seksuaalisen hyväksikäytön estämiseksi. Google priorisoi osallistumista näihin liittoumiin, ja yhteistyössä NCMEC:n ja Thornin kaltaisten kansalaisjärjestöjen kanssa jaamme asiantuntemustamme, etsimme parhaita käytäntöjä ja opimme lisää uusimmista uhkista, jotka liittyvät lasten turvallisuutta koskeviin keskeisiin ongelmiin.

Miten viranomaiset voivat lähettää CyberTipiin liittyviä oikeudellisia pyyntöjä Googlelle?

Saatuaan raportin NCMEC voi lähettää sen edelleen lainvalvontaviranomaisille eri puolilla maailmaa. Tämän jälkeen lainvalvontaviranomaiset voivat lähettää oikeudellisia pyyntöjä Googlelle saadakseen lisätietoja (Oikeudellisia täytäntöönpanoja koskevat pyynnöt – LERS). Googlella on pyyntöjä varten verkkojärjestelmä, jonka avulla vahvistetut viranomaiset voivat lähettää lisätietopyyntöjä turvallisesti. Viranomaiset voivat tarkistaa lähetettyjen pyyntöjen tilan verkkojärjestelmän avulla ja ladata Googlen vastauksen, kun se on valmis. Lisätietoa LERS-järjestelmästä ja tilin luomisesta sitä varten on osoitteessa lers.google.com. Jos haluat lisätietoa, lue viranomaisten tekemien käyttäjätietopyyntöjen käsittelyyn liittyvät käytäntömme.

 Miten voin tehdä ilmoituksen epäillystä CSAM:stä?

Jos löydät linkin, verkkosivuston tai muuta CSAM-sisältöä, voit ilmoittaa siitä poliisille, NCMEC:lle tai soveltuvalle organisaatiolle alueellasi. Jos näet tai havaitset sopimatonta sisältöä tai lasten sopimatonta kohtelua Googlen tuotteissa, voit ilmoittaa siitä meille esimerkiksi raportoimalla Googlen tuotteissa tapahtuvasta lasten vaarantamisesta (esim. houkuttelusta, intiimikuvamateriaalilla kiristyksestä ja muista lasten seksuaalisen hyväksikäytön muodoista). Voit auttaa estämään muita ottamasta yhteyttä lapseesi Googlen tuotteissa ja suodattaa lapsesi näkemää sisältöä muuttamalla hänen Google-tilinsä asetuksia.

Mitkä tiimit tarkastavat CSAM-ilmoitukset?

Ihmisten tekemät tarkastukset ovat olennainen osa jatkuvaa työtämme CSAM:n torjumiseksi. Tiimimme jäsenillä on laajaa asiantuntemusta eri aloilta, esimerkiksi lain, lasten suojelun ja edunvalvonnan, sosiaalityön ja kybertutkimuksen parista. Tiimin jäsenet ovat saaneet koulutusta liittyen erityisesti käytäntöjen laajuuteen sekä siihen, mikä lain mukaan katsotaan lasten seksuaalista hyväksikäyttöä kuvaavaksi materiaaliksi. Tarkastustiimit on erityiskoulutettu ja tarkastajat saavat tukea hyvinvointiinsa. Täältä voit lukea lisää Googlen lähestymistavasta sisällönvalvontaa kohtaan ja siitä, miten tuemme tarkastajien hyvinvointia.

Minkä ajanjakson raportti kattaa?

Täällä esitetyt mittarit kuvaavat dataa, joka on kerätty 1. tammikuuta klo 12.00 (PST) alkaneena ja 30. kesäkuuta klo 23.59 (PDT) päättyneenä ajanjaksona sekä 1. heinäkuuta 12.00 (PDT) alkaneena ja 31. joulukuuta klo 23.59 päättyneenä ajanjaksona, ellei muuta mainita.
Päävalikko
8441040966372772065
true
Ohjekeskushaku
true
true
true
false
false