Què és el material d'abús sexual infantil (CSAM)?
Quin és l'enfocament de Google per combatre el material d'abús sexual infantil?
Com identifica Google el material d'abús sexual infantil a la seva plataforma?
Invertim molts recursos en la lluita contra l'explotació sexual infantil en línia i utilitzem la tecnologia per detectar, impedir i retirar el material d'abús sexual infantil de les nostres plataformes. Entre altres mètodes, utilitzem la detecció automatitzada i la revisió humana, a més de basar-nos en els informes que envien els nostres usuaris i tercers, com ara ONG. Implementem la coincidència de valors resum, inclosa l'eina CSAI Match de YouTube, per detectar el material d'abús sexual infantil conegut. També implementem classificadors d'aprenentatge automàtic per trobar nou material d'abús sexual infantil, el qual confirmen posteriorment els nostres equips de revisió especialitzats. La detecció de material d'abús sexual infantil que no s'ha vist anteriorment ajuda l'ecosistema de la seguretat infantil de diverses maneres. Per exemple, permet identificar les víctimes menors que necessiten protecció i contribueix a la base de dades de coincidències de valors resum per millorar les nostres capacitats de detectar material d'abús sexual infantil conegut. Mitjançant aquests classificadors, a Google hem creat l'API per a la seguretat del contingut, que proporcionem a tercers per ajudar-los a prioritzar la revisió humana del contingut abusiu.
Tant l'eina CSAI Match com l'API per a la seguretat del contingut estan disponibles per a les entitats que compleixin els requisits i que vulguin combatre l'abús a les seves plataformes. Obteniu més informació aquí.
Què fa Google quan detecta material d'abús sexual infantil a les seves plataformes?
L'NCMEC és l'organització de referència als Estats Units per informar d'assumptes relacionats amb l'explotació infantil. Quan l'NCMEC rep un informe, pot reenviar-lo a organismes d'aplicació de la llei d'arreu del món.
Què és un informe CyberTipline i quin tipus d'informació inclou?
Quan a Google ens assabentem de la presència evident de material d'abús sexual infantil, enviem un informe a l'NCMEC. Normalment, aquests informes s'anomenen "informes CyberTipline" o "CyberTips". A més, intentem identificar casos relacionats amb l'abús actiu de menors, amb la creació de material d'abús sexual infantil o amb el tràfic de nens. En aquests casos, enviem a l'NCMEC un informe CyberTip complementari perquè ajudi a prioritzar la qüestió. És possible que els informes enviats a l'NCMEC incloguin informació que identifiqui l'usuari o la víctima menor, i poden incloure el contingut infractor i altres dades contextuals útils.
A continuació hi ha alguns exemples de l'impacte en el món real d'informes CyberTip que Google ha enviat. Proporcionen una visió general de la gran varietat d'informes que fem, però no són exhaustius.
- Un CyberTip de Google va informar sobre diversos fragments de material d'abús sexual infantil que incloïa nens de primària a l'aula. Part del material d'abús sexual infantil informat no havia estat identificat per Google anteriorment i semblava que el titular del Compte de Google l'havia produït. L'NCMEC va compartir aquest informe amb organismes d'aplicació de la llei, la qual cosa va permetre la identificació i la protecció dels dos menors que apareixien a les imatges de material d'abús sexual infantil.
- Un CyberTip de Google va informar sobre la captació sexual i la producció de material d'abús sexual infantil per un titular del compte, que va sol·licitar que es gravessin diversos vídeos on es veiés l'abús actiu de desenes de menors a canvi de diners. L'NCMEC va compartir l'informe amb organismes d'aplicació de la llei. El titular del compte va ser condemnat per produir material d'abús sexual infantil; es van identificar desenes de nens i se'ls va protegir d'abusos continuats.
- Un CyberTip de Google va informar d'un únic element de contingut de material d'abús sexual infantil que va permetre detenir un titular del compte que, segons els organismes d'aplicació de la llei, es va descobrir que posseïa molt més material d'abús sexual infantil i que tenia relació directa amb l'abús actiu de menors a càrrec seu. A més, aquesta persona també facilitava que altres persones poguessin abusar dels menors. Gràcies als esforços de Google, l'NCMEC i els organismes d'aplicació de la llei, es va rescatar tres menors d'abusos sexuals.
- Un CyberTip de Google va informar de material d'abús sexual infantil que el titular del Compte de Google produïa i sol·licitava a menors als quals el titular del compte tenia accés a través d'Internet. Posteriorment, els organismes d'aplicació de la llei van detenir el titular del compte i van descobrir que ostentava una posició de confiança com a professional sanitari: utilitzava la seva posició per abusar de pacients a càrrec seu i tenia accés directe a menors a través d'Internet, a qui sol·licitava la producció de material d'abús sexual infantil.
Com combat Google els riscos de material d'abús sexual infantil en l'àmbit de la IA generativa (IA gen.)?
El material d'abús sexual infantil generat per IA o les imatges generades per ordinador que representen abús sexual infantil són una amenaça que Google es pren molt seriosament. Els nostres esforços per detectar i retirar el material d'abús sexual infantil, així com per informar-ne, sempre han inclòs el contingut infractor relacionat amb menors reals, les imatges modificades d'un menor identificable participant en una conducta sexualment explícita i les imatges generades per ordinador que no es poden distingir de les imatges de menors reals que participen en aquestes conductes.
Google posa molt d'èmfasi en la seguretat infantil a l'hora de crear models i productes propis d'IA generativa. Seguim els principis d'IA generativa responsable de Google per protegir tots els models de Google disponibles públicament i els serveis basats en aquests models.
Implementem diverses proteccions per a la seguretat infantil als nostres models i productes d'IA generativa. Per exemple, proteccions contra la presència de material d'abús sexual infantil a les dades d'entrenament subjacents dels nostres models, contra les indicacions per cercar i produir material d'abús sexual infantil i contra els resultats infractors. També duem a terme proves rigoroses de seguretat infantil als nostres models abans de llançar-los públicament per entendre i mitigar la possibilitat que s'hi generi material d'abús sexual infantil.
També col·laborem amb altres entitats de l'ecosistema de seguretat infantil, com ara Technology Coalition i altres ONG dedicades a la seguretat infantil, per compartir i entendre les pràctiques recomanades a mesura que aquesta tecnologia continua evolucionant.
Què fa Google per impedir que els usuaris cerquin material d'abús sexual infantil a la Cerca?
Com contribueix Google amb l'ecosistema de seguretat infantil per combatre el material d'abús sexual infantil?
L'equip de seguretat infantil de Google desenvolupa tecnologia que detecta i retira el material d'abús sexual infantil de manera acurada, i n'informa, a fi de protegir els nostres usuaris i evitar perjudicar els nens als productes de Google. Hem desenvolupat un Joc d'eines per a la seguretat infantil per garantir que tot l'ecosistema també té accés a aquesta potent tecnologia i per ajudar a prevenir la proliferació en línia del material d'abús sexual infantil. A més, proporcionem a l'NCMEC l'API de coincidència de valors resum de Google per ajudar-los a prioritzar i revisar els informes CyberTipline de manera més eficient, la qual cosa els permet centrar-se en els informes en què els nens necessiten una ajuda immediata.
També compartim els senyals d'explotació i abús sexual infantil per permetre que se suprimeixi material d'abús sexual infantil de l'ecosistema en general. Compartim milions de valors resum de material d'abús sexual infantil amb la base de dades de l'NCMEC de valors resum del sector perquè altres proveïdors puguin accedir-hi i utilitzar-los. També ens hem inscrit al projecte Lantern, un programa que permet a les empreses tecnològiques compartir senyals rellevants per combatre l'abús i l'explotació sexuals en línia d'una manera segura i responsable, en entendre que aquest abús es pot produir en diferents plataformes i serveis.
També som un membre actiu de diverses coalicions, com ara Technology Coalition, WeProtect Global Alliance i INHOPE, que són un punt de connexió entre empreses i ONG per desenvolupar solucions que impedeixin l'intercanvi de material d'abús sexual infantil en línia i prevenir l'explotació sexual infantil. Google prioritza la participació en aquestes coalicions i, en la col·laboració amb ONG com ara l'NCMEC i Thorn, compartim la nostra experiència, explorem les pràctiques recomanades i obtenim més informació sobre les amenaces més recents pel que fa als principals problemes de seguretat infantil.