Preguntes més freqüents sobre les mesures que pren Google per combatre el material d'abús sexual infantil en línia

Què és el material d'abús sexual infantil (CSAM)?

L'acrònim CSAM prové del terme anglès "child sexual abuse material". És qualsevol representació visual, inclosos, entre d'altres, vídeos, fotos i imatges generades per ordinador, en què es mostri un menor participant en una conducta sexualment explícita. Sabem que el material d'abús sexual infantil no és el mateix que la nuesa infantil, i les nostres polítiques i sistemes estan dissenyats específicament per reconèixer les imatges benignes com un nen o nena jugant a la banyera o al jardí (que no és contingut sexual per naturalesa ni material d'abús sexual infantil) i distingir-les de les imatges que impliquen abús sexual infantil o una exhibició lasciva de genitals i parts íntimes, cosa que infringeix les lleis internacionals. A més, hi ha altres tipus d'imatges obscenes o d'explotació que inclouen o representen infants, com ara les representacions d'abús sexual infantil en forma de dibuixos animats o els intents de fer representacions humorístiques de l'explotació sexual infantil. Aquestes imatges també poden infringir les lleis internacionals.

Quin és l'enfocament de Google per combatre el material d'abús sexual infantil?

A Google, ens comprometem a lluitar contra el material d'abús sexual infantil en línia i a impedir que les nostres plataformes s'utilitzin per crear-ne, emmagatzemar-ne o distribuir-ne. Dediquem una quantitat considerable de recursos (tecnologia, persones i temps) a detectar, impedir i retirar continguts i comportaments relacionats amb l'explotació sexual infantil, així com a informar-ne. Per obtenir més informació sobre les mesures que prenem per protegir els infants i les famílies, consulteu el Centre de seguretat de Google, les directrius de la comunitat de YouTube, el nostre lloc web de protecció infantil i el nostre blog sobre com detectem i retirem el material d'abús sexual infantil, i com n'informem.

Com identifica Google el material d'abús sexual infantil a la seva plataforma?

Invertim molts recursos en la lluita contra l'explotació sexual infantil en línia i utilitzem la tecnologia per detectar, impedir i retirar el material d'abús sexual infantil de les nostres plataformes. Entre altres mètodes, utilitzem la detecció automatitzada i la revisió humana, a més de basar-nos en els informes que envien els nostres usuaris i tercers, com ara ONG. Implementem la coincidència de valors resum, inclosa l'eina CSAI Match de YouTube, per detectar el material d'abús sexual infantil conegut. També implementem classificadors d'aprenentatge automàtic per trobar nou material d'abús sexual infantil, el qual confirmen posteriorment els nostres equips de revisió especialitzats. La detecció de material d'abús sexual infantil que no s'ha vist anteriorment ajuda l'ecosistema de la seguretat infantil de diverses maneres. Per exemple, permet identificar les víctimes menors que necessiten protecció i contribueix a la base de dades de coincidències de valors resum per millorar les nostres capacitats de detectar material d'abús sexual infantil conegut. Mitjançant aquests classificadors, a Google hem creat l'API per a la seguretat del contingut, que proporcionem a tercers per ajudar-los a prioritzar la revisió humana del contingut abusiu.


Tant l'eina CSAI Match com l'API per a la seguretat del contingut estan disponibles per a les entitats que compleixin els requisits i que vulguin combatre l'abús a les seves plataformes. Obteniu més informació aquí.

Què fa Google quan detecta material d'abús sexual infantil a les seves plataformes?

Quan detectem material d'abús sexual infantil a les nostres plataformes, el retirem, enviem un informe CyberTipline al Centre Nacional per a Menors Desapareguts i Explotats dels Estats Units (NCMEC) i, en funció de la naturalesa i la gravetat de la infracció, podem emetre un advertiment, limitar l'accés d'un compte a determinats productes o serveis de Google, o desactivar el Compte de Google. També és possible que fem una revisió més exhaustiva del Compte de Google per detectar si hi ha més material d'abús sexual infantil o per assegurar-nos que tenim en compte el context rellevant i que prenem les mesures coercitives adequades i proporcionals en relació amb el material identificat al Compte de Google.

 

L'NCMEC és l'organització de referència als Estats Units per informar d'assumptes relacionats amb l'explotació infantil. Quan l'NCMEC rep un informe, pot reenviar-lo a organismes d'aplicació de la llei d'arreu del món.

Què és un informe CyberTipline i quin tipus d'informació inclou?

Quan a Google ens assabentem de la presència evident de material d'abús sexual infantil, enviem un informe a l'NCMEC. Normalment, aquests informes s'anomenen "informes CyberTipline" o "CyberTips". A més, intentem identificar casos relacionats amb l'abús actiu de menors, amb la creació de material d'abús sexual infantil o amb el tràfic de nens. En aquests casos, enviem a l'NCMEC un informe CyberTip complementari perquè ajudi a prioritzar la qüestió. És possible que els informes enviats a l'NCMEC incloguin informació que identifiqui l'usuari o la víctima menor, i poden incloure el contingut infractor i altres dades contextuals útils.

A continuació hi ha alguns exemples de l'impacte en el món real d'informes CyberTip que Google ha enviat. Proporcionen una visió general de la gran varietat d'informes que fem, però no són exhaustius.  

  • Un CyberTip de Google va informar sobre diversos fragments de material d'abús sexual infantil que incloïa nens de primària a l'aula. Part del material d'abús sexual infantil informat no havia estat identificat per Google anteriorment i semblava que el titular del Compte de Google l'havia produït. L'NCMEC va compartir aquest informe amb organismes d'aplicació de la llei, la qual cosa va permetre la identificació i la protecció dels dos menors que apareixien a les imatges de material d'abús sexual infantil.  
  • Un CyberTip de Google va informar sobre la captació sexual i la producció de material d'abús sexual infantil per un titular del compte, que va sol·licitar que es gravessin diversos vídeos on es veiés l'abús actiu de desenes de menors a canvi de diners. L'NCMEC va compartir l'informe amb organismes d'aplicació de la llei. El titular del compte va ser condemnat per produir material d'abús sexual infantil; es van identificar desenes de nens i se'ls va protegir d'abusos continuats.
  • Un CyberTip de Google va informar d'un únic element de contingut de material d'abús sexual infantil que va permetre detenir un titular del compte que, segons els organismes d'aplicació de la llei, es va descobrir que posseïa molt més material d'abús sexual infantil i que tenia relació directa amb l'abús actiu de menors a càrrec seu. A més, aquesta persona també facilitava que altres persones poguessin abusar dels menors. Gràcies als esforços de Google, l'NCMEC i els organismes d'aplicació de la llei, es va rescatar tres menors d'abusos sexuals.
  • Un CyberTip de Google va informar de material d'abús sexual infantil que el titular del Compte de Google produïa i sol·licitava a menors als quals el titular del compte tenia accés a través d'Internet. Posteriorment, els organismes d'aplicació de la llei van detenir el titular del compte i van descobrir que ostentava una posició de confiança com a professional sanitari: utilitzava la seva posició per abusar de pacients a càrrec seu i tenia accés directe a menors a través d'Internet, a qui sol·licitava la producció de material d'abús sexual infantil.

Com combat Google els riscos de material d'abús sexual infantil en l'àmbit de la IA generativa (IA gen.)?

El material d'abús sexual infantil generat per IA o les imatges generades per ordinador que representen abús sexual infantil són una amenaça que Google es pren molt seriosament. Els nostres esforços per detectar i retirar el material d'abús sexual infantil, així com per informar-ne, sempre han inclòs el contingut infractor relacionat amb menors reals, les imatges modificades d'un menor identificable participant en una conducta sexualment explícita i les imatges generades per ordinador que no es poden distingir de les imatges de menors reals que participen en aquestes conductes.

Google posa molt d'èmfasi en la seguretat infantil a l'hora de crear models i productes propis d'IA generativa. Seguim els principis d'IA generativa responsable de Google per protegir tots els models de Google disponibles públicament i els serveis basats en aquests models.

Implementem diverses proteccions per a la seguretat infantil als nostres models i productes d'IA generativa. Per exemple, proteccions contra la presència de material d'abús sexual infantil a les dades d'entrenament subjacents dels nostres models, contra les indicacions per cercar i produir material d'abús sexual infantil i contra els resultats infractors. També duem a terme proves rigoroses de seguretat infantil als nostres models abans de llançar-los públicament per entendre i mitigar la possibilitat que s'hi generi material d'abús sexual infantil.

També col·laborem amb altres entitats de l'ecosistema de seguretat infantil, com ara Technology Coalition i altres ONG dedicades a la seguretat infantil, per compartir i entendre les pràctiques recomanades a mesura que aquesta tecnologia continua evolucionant.

Què fa Google per impedir que els usuaris cerquin material d'abús sexual infantil a la Cerca?

Google implementa la seguretat amb principis de disseny per impedir que els usuaris cerquin material d'abús sexual infantil a la Cerca. D'acord amb les nostres polítiques, bloquegem els resultats de la cerca que porten a material d'abús sexual infantil que sembla que victimitza sexualment, posa en perill o explota menors d'alguna manera. Actualitzem els nostres algoritmes constantment per combatre aquestes amenaces en evolució. Apliquem proteccions addicionals a les cerques si considerem que s'està cercant contingut de material d'abús sexual infantil. Eliminem els resultats sexuals explícits si la consulta de cerca indica que s'està cercant material d'abús sexual infantil. En les consultes que cerquen contingut explícit d'adults, la Cerca no torna imatges que inclouen nens per trencar l'associació entre nens i contingut sexual. A més de retirar el contingut de material d'abús sexual infantil de l'índex de la Cerca quan s'identifica, també disminuïm de nivell tot el contingut procedent de llocs web que tenen una gran proporció de material d'abús sexual infantil. En molts països, els usuaris que introdueixen consultes clarament relacionades amb material d'abús sexual infantil veuen un advertiment notori que indica que les imatges d'abús sexual infantil són il·legals, amb informació sobre com poden informar d'aquest contingut a organitzacions de confiança. Quan es mostren aquests advertiments, hem descobert que és més probable que els usuaris deixin de cercar aquest material.

Com contribueix Google amb l'ecosistema de seguretat infantil per combatre el material d'abús sexual infantil?

L'equip de seguretat infantil de Google desenvolupa tecnologia que detecta i retira el material d'abús sexual infantil de manera acurada, i n'informa, a fi de protegir els nostres usuaris i evitar perjudicar els nens als productes de Google. Hem desenvolupat un Joc d'eines per a la seguretat infantil per garantir que tot l'ecosistema també té accés a aquesta potent tecnologia i per ajudar a prevenir la proliferació en línia del material d'abús sexual infantil. A més, proporcionem a l'NCMEC l'API de coincidència de valors resum de Google per ajudar-los a prioritzar i revisar els informes CyberTipline de manera més eficient, la qual cosa els permet centrar-se en els informes en què els nens necessiten una ajuda immediata.

També compartim els senyals d'explotació i abús sexual infantil per permetre que se suprimeixi material d'abús sexual infantil de l'ecosistema en general. Compartim milions de valors resum de material d'abús sexual infantil amb la base de dades de l'NCMEC de valors resum del sector perquè altres proveïdors puguin accedir-hi i utilitzar-los. També ens hem inscrit al projecte Lantern, un programa que permet a les empreses tecnològiques compartir senyals rellevants per combatre l'abús i l'explotació sexuals en línia d'una manera segura i responsable, en entendre que aquest abús es pot produir en diferents plataformes i serveis.

També som un membre actiu de diverses coalicions, com ara Technology Coalition, WeProtect Global Alliance i INHOPE, que són un punt de connexió entre empreses i ONG per desenvolupar solucions que impedeixin l'intercanvi de material d'abús sexual infantil en línia i prevenir l'explotació sexual infantil. Google prioritza la participació en aquestes coalicions i, en la col·laboració amb ONG com ara l'NCMEC i Thorn, compartim la nostra experiència, explorem les pràctiques recomanades i obtenim més informació sobre les amenaces més recents pel que fa als principals problemes de seguretat infantil.

Com poden els organismes governamentals enviar sol·licituds legals a Google associades a un CyberTip?

Quan l'NCMEC rep un informe, pot reenviar-lo a organismes d'aplicació de la llei d'arreu del món. Tot seguit, aquests organismes poden enviar processos judicials a Google per sol·licitar més informació (hi utilitzen el Sistema de sol·licituds per a organismes d'aplicació de la llei, o LERS). Per facilitar aquest tipus de sol·licituds, Google proporciona un sistema en línia que permet als organismes governamentals verificats enviar sol·licituds de manera segura per obtenir més informació. Aquests organismes poden veure l'estat de les sol·licituds enviades mitjançant aquest sistema en línia i, en darrera instància, baixar la resposta de Google a la seva sol·licitud. Per obtenir més informació sobre el LERS o configurar un compte de LERS, visiteu lers.google.com. Per obtenir més informació, consulteu les nostres polítiques sobre com gestiona Google les sol·licituds governamentals d'informació dels usuaris.

Com puc informar de presumpte material d'abús sexual infantil?

Si trobeu un enllaç, un lloc web o qualsevol contingut que estigui relacionat amb material d'abús sexual infantil, podeu informar-ne la policia, l'NCMEC o l'organització pertinent de la vostra regió. Si veieu o detecteu contingut o comportaments inadequats en relació amb els nens als productes de Google, hi ha moltes maneres d'informar-nos d'aquest fet, com ara informar-nos de delictes perillosos per als menors (per exemple, ciberseducció de menors, extorsió sexual o altres formes d'explotació sexual infantil) que es produeixin als productes de Google. Podeu ajudar a impedir que altres persones contactin amb el vostre fill o filla als productes de Google i filtrar el contingut que veu gestionant la configuració del seu Compte de Google.

Quins equips revisen els informes de material d'abús sexual infantil?

La revisió humana és una part essencial del nostre esforç continu per combatre el material d'abús sexual infantil. Els membres del nostre equip tenen una gran experiència en aquesta feina, a més de formació en dret, seguretat i defensa infantil, treball social i ciberinvestigacions, entre altres disciplines. Estan formats especialment tant en l'abast de les nostres polítiques com en el marc legal del material d'abús sexual infantil. Els equips de revisors reben una formació especialitzada i ajuda psicològica. Per obtenir més informació sobre com Google aborda la moderació de contingut, inclosa la manera com vetllem pel benestar dels revisors, consulteu aquest enllaç.

Quin període de temps cobreix aquest informe?

Les mètriques que es presenten en aquest informe representen les dades recollides des de les 00:00 (PST) de l'1 de gener fins a les 23:59 (PDT) del 30 de juny i des de les 00:00 (PDT) de l'1 de juliol fins a les 23:59 (PST) del 31 de desembre, tret que s'indiqui el contrari.
Menú principal
18305541339569343122
true
Cerca al Centre d'ajuda
true
true
true
false
false