Che cos'è il materiale pedopornografico?
Qual è l'approccio di Google per contrastare il materiale pedopornografico?
In che modo Google identifica il materiale pedopornografico sulla sua piattaforma?
Investiamo molto nella lotta contro lo sfruttamento sessuale minorile online e usiamo la tecnologia per scoraggiare, rilevare e rimuovere il materiale pedopornografico dalle nostre piattaforme. Ricorriamo ad esempio al rilevamento automatico e alla revisione umana, oltre ad affidarci alle segnalazioni inviate dai nostri utenti e da terze parti, come le ONG. Implementiamo la corrispondenza di hash, inclusa la tecnologia CSAI Match di YouTube, per rilevare il materiale pedopornografico noto. Implementiamo anche classificatori di machine learning per rilevare materiale pedopornografico mai individuato in precedenza, che viene poi verificato dai nostri team di revisori dedicati. Il rilevamento di materiale pedopornografico mai individuato in precedenza è utile all'ecosistema della sicurezza dei minori in diversi modi, ad esempio identificando le vittime minorenni che necessitano di venire messe in sicurezza e ampliando l'insieme di hash disponibili per migliorare le nostre capacità di rilevare materiale pedopornografico noto. Usando i propri classificatori, Google ha creato l'API Content Safety, che mettiamo a disposizione di altri soggetti per aiutarli a fare in modo che la revisione umana possa dare priorità ai contenuti relativi ad abusi.
Sia la tecnologia CSAI Match sia l'API Content Safety sono a disposizione delle entità idonee che vogliono contrastare gli illeciti sulle proprie piattaforme. Per ulteriori informazioni, visita questa pagina.
Che cosa fa Google quando rileva materiale pedopornografico sulla sua piattaforma?
Il NCMEC è un portale e un centro segnalazioni completo degli Stati Uniti dedicato ai problemi legati allo sfruttamento minorile. Dopo aver ricevuto una segnalazione, il NCMEC potrebbe inoltrarla alle forze dell'ordine di tutto il mondo.
Che cos'è una segnalazione CyberTipLine e che tipo di informazioni include?
Quando Google viene a conoscenza di potenziale materiale pedopornografico, fa una segnalazione al NCMEC. Queste segnalazioni sono comunemente chiamate segnalazioni CyberTipLine o CyberTip. Cerchiamo inoltre di identificare i casi relativi ad abusi fisici su minori, produzione di materiale pedopornografico o traffico di minori. In queste situazioni inviamo una segnalazione CyberTip supplementare al NCMEC per consentire di dare priorità alla pratica. Le segnalazioni inviate al NCMEC potrebbero includere informazioni che identificano l'utente, la vittima minorenne e i contenuti in violazione e/o altri dati contestuali utili.
Di seguito sono riportati alcuni esempi reali dell'impatto delle segnalazioni CyberTip inviate da Google. Questi esempi, sebbene non esaustivi, danno un'idea della vasta gamma di segnalazioni che effettuiamo.
- Una segnalazione Google CyberTip ha riguardato vari contenuti di materiale pedopornografico relativo a bambini delle elementari, in un contesto scolastico. Alcuni di questi contenuti segnalati in precedenza non erano stati identificati da Google e sembravano essere stati prodotti dal proprietario dell'Account Google. Il NCMEC ha inoltrato la segnalazione alle forze dell'ordine, portando così a identificare e mettere in sicurezza i due minorenni raffigurati nelle immagini pedopornografiche segnalate.
- Una segnalazione Google CyberTip ha riguardato l'adescamento e la produzione di materiale pedopornografico da parte del proprietario di un account, che aveva richiesto la realizzazione di diversi video che raffigurassero la partecipazione diretta e attiva ad abusi sessuali su decine di maschi minorenni in cambio di denaro. Il NCMEC ha inoltrato la segnalazione alle forze dell'ordine. Il proprietario dell'account è stato condannato per la produzione di materiale pedopornografico e diverse decine di minorenni vittime di abuso continuato sono state identificate e messe in sicurezza.
- Una segnalazione Google CyberTip ha riguardato un singolo contenuto di materiale pedopornografico noto che ha portato all'arresto del proprietario dell'account, che secondo le forze dell'ordine è stato trovato in possesso di una mole di ulteriore materiale pedopornografico e, inoltre, era direttamente coinvolto nella partecipazione attiva ad abusi su minori affidati alle sue cure e nel traffico relativo. Grazie all'impegno di Google, del NCMEC e delle forze dell'ordine, tre minorenni sono stati sottratti agli abusi sessuali.
- Una segnalazione Google CyberTip ha riguardato materiale pedopornografico prodotto dal proprietario dell'Account Google e richiesto a minorenni a cui il proprietario dell'account aveva accesso online. Il proprietario dell'account è stato successivamente arrestato e le forze dell'ordine hanno stabilito che abusava dei suoi pazienti, approfittando della fiducia di cui godeva in qualità di professionista sanitario, e aveva accesso diretto a minorenni online a cui chiedeva di produrre materiale pedopornografico.
In che modo Google combatte i rischi del materiale pedopornografico nell'ambito dell'AI generativa (GenAI)?
Il materiale pedopornografico creato con l'AI o le immagini generate al computer che raffigurano abusi sessuali su minori sono una minaccia che Google prende molto sul serio. Il nostro impegno per rilevare, rimuovere e segnalare il materiale pedopornografico ha sempre incluso contenuti in violazione che coinvolgono minorenni, immagini modificate di un minorenne identificabile coinvolto in comportamenti sessualmente espliciti e immagini generate al computer che non sono distinguibili da un minorenne reale coinvolto in simili comportamenti.
Google pone grande enfasi sulla sicurezza dei minori al momento di creare i propri prodotti e modelli di AI generativa. Seguiamo i principi dell'AI generativa responsabile di Google nella protezione di tutti i modelli disponibili pubblicamente di Google e dei servizi basati questi modelli.
Implementiamo una serie di protezioni per la sicurezza dei minori per i nostri modelli e prodotti di AI generativa. Ciò può includere protezioni contro la presenza di materiale pedopornografico nei dati di addestramento alla base dei nostri modelli, contro i prompt che cercano e producono materiale pedopornografico e contro output in violazione. Prima del lancio pubblico, eseguiamo inoltre test rigorosi sulla sicurezza dei minori sui nostri modelli per comprendere e ridurre la possibilità che venga generato materiale pedopornografico.
Inoltre, collaboriamo con altri operatori dell'ecosistema della sicurezza dei minori, tra cui Technology Coalition e le ONG per la sicurezza dei minori, per condividere e comprendere le best practice con la continua evoluzione di questa tecnologia.
Che cosa fa Google per impedire agli utenti di cercare materiale pedopornografico nella Ricerca?
In che modo Google aiuta l'ecosistema della sicurezza dei minori a contrastare il materiale pedopornografico?
Il team per la sicurezza dei minori di Google crea tecnologia che rileva, segnala e rimuove accuratamente il materiale pedopornografico per proteggere i nostri utenti e impedire abusi a danno di minori nel contesto dei prodotti Google. Abbiamo sviluppato il toolkit per la sicurezza dei minori per garantire che anche l'intero ecosistema abbia accesso a questa potente tecnologia e per contribuire a impedire la proliferazione online di materiale pedopornografico. Inoltre, mettiamo a disposizione del NCMEC l'API Hash Matching di Google per aiutare questo portale a dare la priorità alle segnalazioni CyberTipline e a esaminarle in modo più efficace, consentendo al suo team di concentrarsi sulle segnalazioni relative a minorenni che hanno bisogno di aiuto immediato.
Condividiamo inoltre indicatori di abuso e sfruttamento sessuale di minori per consentire la rimozione del materiale pedopornografico dall'intero ecosistema. Condividiamo milioni di hash di materiale pedopornografico con il database di hash del settore del NCMEC, in modo che anche altri fornitori possano accedervi e utilizzarli. Inoltre, abbiamo aderito a Project Lantern, un programma che consente alle aziende tecnologiche di condividere indicatori pertinenti per contrastare l'abuso sessuale e lo sfruttamento online in modo sicuro e responsabile, comprendendo che questo abuso può essere presente su piattaforme e servizi diversi.
Inoltre, siamo un membro attivo di diverse coalizioni, come Technology Coalition, WeProtect Global Alliance e INHOPE, che uniscono società e ONG per lo sviluppo di soluzioni che interrompano lo scambio di materiale pedopornografico online e impediscano lo sfruttamento sessuale di minorenni. Diamo la priorità alla partecipazione a queste coalizioni e, in collaborazione con ONG come NCMEC e Thorn, condividiamo la nostra esperienza, esploriamo le best practice e scopriamo di più sulle ultime minacce ai principali problemi relativi alla sicurezza dei minori.