Mitä CSAM tarkoittaa?
Mikä on Googlen toimintatapa CSAM:n torjunnassa?
Miten Google tunnistaa CSAM:n alustoillaan?
Panostamme paljon verkossa esiintyvän lasten seksuaalisen hyväksikäytön torjuntaan ja käytämme teknologiaa CSAM:n estämiseen, havaitsemiseen ja poistamiseen alustoiltamme. Käytämme esimerkiksi automaattista tunnistusta, ihmisten tekemää tarkastusta ja käyttäjien ja kolmansien osapuolten (esim. järjestöjen) ilmoituksia. Tunnistamme CSAM:ia vertailemalla tiivisteitä esimerkiksi YouTuben CSAI Matchilla. Käytämme myös koneoppimisen luokittelukriteereitä löytääksemme CSAM-materiaalia, jota ei ole ennen havaittu. Tämän jälkeen asiantuntijoista koostuvat tarkastustiimimme vahvistavat, että kyseessä on CSAM. Aiemmin tuntemattoman CSAM:n havaitseminen tukee lasten suojelun ekosysteemiä useilla tavoilla. Sen ansiosta voidaan esimerkiksi tunnistaa lapsiuhrit, jotka tarvitsevat suojelua, ja laajentaa mahdollisuuksiamme tunnistaa tunnettua CSAM-sisältöä. Google on luonut luokittelukriteerien avulla Content Safety APIn. Google tarjoaa sen muiden yhteisöjen käyttöön, jotta ne voivat priorisoida hyväksikäyttöä kuvaavan sisällön käsittelyn ihmisen tekemissä tarkastuksissa.
Sekä CSAI Match että Content Safety API ovat saatavilla asianmukaisille yhteisöille, jotka haluavat taistella hyväksikäyttöä vastaan alustoillaan. Lue lisätietoja täältä.
Mitä Google tekee havaitessaan CSAM-materiaalia alustallaan?
Yhdysvaltalaisessa NCMEC-järjestössä kootaan informaatiota lasten hyväksikäyttöön liittyvistä ongelmista sekä raportoidaan niistä. Saatuaan raportin NCMEC voi lähettää sen edelleen lainvalvontaviranomaisille eri puolilla maailmaa.
Mikä on CyberTipline-raportti, ja minkälaista tietoa se sisältää?
Kun Google saa tiedon CSAM:ltä vaikuttavasta materiaalista, teemme siitä raportin NCMEC:lle. Nämä raportit tunnetaan yleisesti CyberTipLine-raportteina tai CyberTipseinä. Yritämme myös tunnistaa tapauksia, joissa on pahoinpidelty alaikäisiä fyysisesti, tuotettu CSAM-materiaalia tai joissa lapset ovat joutuneet ihmiskaupan kohteeksi. Näissä tapauksissa lähetämme NCMEC:lle CyberTip-lisäraportin auttaaksemme asian priorisoinnissa. NCMEC:lle lähetetty raportti voi sisältää tietoja, joilla käyttäjä tai alaikäinen uhri voidaan tunnistaa, ja sääntöjen vastaisen sisällön tai muita hyödyllisiä kontekstisidonnaisia tietoja.
Alla on esimerkkejä Googlen lähettämien CyberTip-raporttien todellisista vaikutuksista. Esimerkeistä saa käsityksen tekemiemme raporttien laajasta kirjosta, mutta ne eivät ole kattavia.
- Googlen CyberTipillä raportoitiin useista CSAM-sisältökohteista, joissa oli alakouluikäisiä lapsia luokkahuoneessa. Google ei ollut havainnut osaa raportoidusta CSAM-sisällöstä aiemmin. Sisältö vaikutti olevan kyseisen Google-tilin omistajan luomaa. NCMEC välitti raportin lainvalvontaviranomaiselle. Tämä johti kahden raportoidussa CSAM-kuvamateriaalissa esiintyneen alaikäisen lapsen tunnistamiseen ja turvaamiseen.
- Googlen CyberTipillä raportoitiin CSAM-sisällön pyytämisestä ja tuottamisesta. Tekijä oli tilin omistaja, joka pyysi useita videoita alaikäisten poikien fyysisestä pahoinpitelystä rahaa vastaan. NCMEC välitti raportin lainvalvontaviranomaisille. Tilin omistaja sai tuomion CSAM:n luomisesta. Kymmeniä lapsia tunnistettiin ja turvattiin pahoinpitelyltä jatkossa.
- Googlen CyberTipillä raportoitiin yksittäisestä tunnetusta CSAM-sisältökohteesta, joka kohdisti epäilyt tilin omistajaan. Lainvalvontaviranomainen löysi hänen hallustaan paljon enemmän CSAM-materiaalia ja totesi hänen liittyvän suoraan kahden alaikäisen, hänen hoidossaan olleen lapsen fyysiseen pahoinpitelyyn sekä kyseisten lasten altistamiseen muiden pahoinpideltäviksi. Googlen, NCMEC:n ja lainvalvontaviranomaisen toimien seurauksena kolme lasta pelastettiin seksuaaliselta hyväksikäytöltä.
- Googlen CyberTipillä raportoitiin CSAM-sisällöstä, joka oli Google-tilin omistajan tuottamaa. Materiaali oli saatu alaikäisiltä, joihin tilin omistaja oli yhteydessä verkossa. Tilin omistaja otettiin myöhemmin kiinni. Lainvalvontaviranomainen katsoi hänen olevan luottamusasemassa lääketieteen ammattilaisena. Hän oli käyttänyt väärin asemaansa ja hyväksikäyttänyt hoitamiaan potilaita. Hänellä oli myös verkossa suora yhteys alaikäisiin, joilta hän sai materiaalia CSAM-sisältöön.
Miten Google torjuu CSAM:n riskejä generatiivisen tekoälyn osalta?
Tekoälyn luoma CSAM tai tietokoneen luomat kuvat lasten seksuaalisesta hyväksikäytöstä ovat uhka, johon Google suhtautuu erittäin vakavasti. CSAM:n havaitsemiseen ja poistamiseen sekä siitä raportoimiseen liittyvä työmme on aina sisältänyt sääntöjen vastaisen sisällön, jossa on mukana todellisia alaikäisiä, muokattuja kuvia tunnistettavasta alaikäisestä osallisena seksuaalisessa kanssakäymisessä sekä tietokoneen luomia kuvia tällaisesta toiminnasta, jossa on mukana alaikäisiä, joita ei voi erottaa oikeasta ihmisestä.
Google kiinnittää erityistä huomiota lasten turvallisuuteen luodessaan omia generatiivisen tekoälyn malleja ja tuotteita. Noudatamme Googlen vastuullisen generatiivisen tekoälyn eettisiä periaatteita suojatessamme kaikkia Googlen julkisesti saatavilla olevia malleja ja niiden päälle rakennettuja palveluita.
Käytämme generatiivisen tekoälyn malleissa ja tuotteissa useita erilaisia lasten turvallisuuteen liittyviä suojausmekaniikkoja. Tämä voi tarkoittaa esimerkiksi suojautumista CSAM:ää vastaan malliemme perustana olevassa koulutusdatassa, CSAM-sisällön hakemiseen ja tuottamiseen liittyvien kehotteiden varalta sekä sääntöjen vastaisia tuotoksia vastaan. Testaamme malliemme turvallisuutta lasten osalta ennen niiden yleistä julkaisua, jotta voimme ymmärtää CSAM:n luomiseen liittyvät riskit ja pienentää niitä.
Teemme yhteistyötä myös muiden lasten turvallisuuden ekosysteemin toimijoiden (esimerkiksi Technology Coalitionin ja lasten turvallisuuteen keskittyvien kansalaisjärjestöjen) kanssa, jotta voimme jakaa ja ymmärtää parhaita käytäntöjä teknologian kehittyessä.
Miten Google pyrkii estämään CSAM-materiaalin etsimisen Hausta?
Miten Google tukee lasten turvallisuuden ekosysteemiä CSAM:n vastaisissa toimissa?
Googlen lasten turvallisuuteen erikoistunut tiimi kehittää teknologiaa, jolla voidaan havaita CSAM-materiaalia, raportoida siitä ja poistaa sitä käyttäjiemme suojelemiseksi ja lasten turvaamiseksi Googlen tuotteissa. Kehitimme lasten turvallisuutta suojaavat työkalut varmistaaksemme, että tämä tehokas teknologia on myös laajemman ekosysteemin käytettävissä, ja jotta voimme auttaa estämään lasten seksuaalista hyväksikäyttöä kuvaavan materiaalin leviämistä verkossa. Lisäksi tarjoamme NCMEC:lle Googlen Hash Matching APIn, jonka avulla CyperTipline-raporttien priorisointi ja tarkastaminen on tehokkaampaa. Tällöin on mahdollista keskittyä raportteihin, joissa mainitut lapset tarvitsevat apua välittömästi.
Jaamme myös signaaleja lasten seksuaalisesta hyväksikäytöstä, jotta CSAM voidaan poistaa laajemmasta ekosysteemistä. Jaamme miljoonia CSAM-tiivisteitä NCMEC:n tiivistetietokannalle, jotta myös muut palveluntarjoajat voivat käyttää niitä. Olemme myös liittyneet Project Lantern ‐ohjelmaan, jonka kautta teknologiayritykset voivat jakaa relevantteja signaaleja seksuaalisen hyväksikäytön torjumiseksi verkossa turvallisesti ja vastuullisesti, koska ymmärrämme, että tällaista hyväksikäyttöä voi esiintyä eri alustoilla ja palveluissa.
Lisäksi olemme aktiivinen jäsen useissa liittoumissa. Tällaisia ovat esimerkiksi Technology Coalition, WeProtect Global Alliance ja INHOPE. Ne tuovat yhteen yrityksiä ja kansalaisjärjestöjä, jotka pyrkivät kehittämään ratkaisuja CSAM:n jakamisen ja lasten seksuaalisen hyväksikäytön estämiseksi. Google priorisoi osallistumista näihin liittoumiin, ja yhteistyössä NCMEC:n ja Thornin kaltaisten kansalaisjärjestöjen kanssa jaamme asiantuntemustamme, etsimme parhaita käytäntöjä ja opimme lisää uusimmista uhkista, jotka liittyvät lasten turvallisuutta koskeviin keskeisiin ongelmiin.