Domande frequenti sulle iniziative di Google per contrastare il materiale pedopornografico online

Che cos'è il materiale pedopornografico?

Il materiale pedopornografico consiste in qualsiasi raffigurazione visiva, inclusi, a titolo esemplificativo, foto, video e immagini generate al computer, relativa al coinvolgimento di minorenni in comportamenti sessuali espliciti. Dato che siamo consapevoli che materiale pedopornografico e nudità relativa a minori non sono la stessa cosa, le nostre norme e i nostri sistemi sono progettati appositamente per riconoscere e distinguere le immagini innocue, come un bambino che gioca nella vasca da bagno o in giardino, che non sono di natura sessuale né rappresentano materiale pedopornografico, da quelle relative all'abuso sessuale su un minore o a esibizioni lascive di genitali e parti intime che violano le leggi globali. Inoltre, esistono altri tipi di immagini oscene o di sfruttamento che includono o rappresentano bambini, come ad esempio i cartoni animati che raffigurano abusi sessuali su minori o tentativi di rappresentazioni umoristiche di sfruttamento sessuale di minori. Queste immagini potrebbero anche violare le leggi globali.

Qual è l'approccio di Google per contrastare il materiale pedopornografico?

Google si impegna a contrastare il materiale pedopornografico online e a impedire che le sue piattaforme vengano utilizzate per creare, archiviare o diffondere questo materiale. Dedichiamo numerose risorse (tecnologie, persone e tempo) a rilevare, scoraggiare, rimuovere e segnalare contenuti e comportamenti legati allo sfruttamento sessuale minorile. Per ulteriori informazioni sulle nostre iniziative per proteggere i minorenni e le famiglie, visita il Centro per la sicurezza online di Google, le Norme della community di YouTube, il nostro sito dedicato alla lotta contro gli abusi sessuali su minori online e il nostro blog su come rileviamo, rimuoviamo e segnaliamo materiale pedopornografico.

In che modo Google identifica il materiale pedopornografico sulla sua piattaforma?

Investiamo molto nella lotta contro lo sfruttamento sessuale minorile online e usiamo la tecnologia per scoraggiare, rilevare e rimuovere il materiale pedopornografico dalle nostre piattaforme. Ricorriamo ad esempio al rilevamento automatico e alla revisione umana, oltre ad affidarci alle segnalazioni inviate dai nostri utenti e da terze parti, come le ONG. Implementiamo la corrispondenza di hash, inclusa la tecnologia CSAI Match di YouTube, per rilevare il materiale pedopornografico noto.  Implementiamo anche classificatori di machine learning per rilevare materiale pedopornografico mai individuato in precedenza, che viene poi verificato dai nostri team di revisori dedicati. Il rilevamento di materiale pedopornografico mai individuato in precedenza è utile all'ecosistema della sicurezza dei minori in diversi modi, ad esempio identificando le vittime minorenni che necessitano di venire messe in sicurezza e ampliando l'insieme di hash disponibili per migliorare le nostre capacità di rilevare materiale pedopornografico noto. Usando i propri classificatori, Google ha creato l'API Content Safety, che mettiamo a disposizione di altri soggetti per aiutarli a fare in modo che la revisione umana possa dare priorità ai contenuti relativi ad abusi. 


Sia la tecnologia CSAI Match sia l'API Content Safety sono a disposizione delle entità idonee che vogliono contrastare gli illeciti sulle proprie piattaforme. Per ulteriori informazioni, visita questa pagina.

Che cosa fa Google quando rileva materiale pedopornografico sulla sua piattaforma?

Quando rileviamo materiale pedopornografico sulle nostre piattaforme, lo rimuoviamo, facciamo una segnalazione "CyberTipline" al NCMEC e, a seconda della natura e della gravità della violazione, potremmo fornire un avviso, limitare l'accesso di un account a determinati prodotti o servizi Google o disattivare l'Account Google. Potremmo anche provvedere a un'ulteriore revisione dell'Account Google per identificare materiale pedopornografico aggiuntivo e/o per assicurarci di prendere in considerazione il contesto pertinente e fare in modo di adottare provvedimenti appropriati e proporzionali in relazione al materiale identificato nell'Account Google.

 

Il NCMEC è un portale e un centro segnalazioni completo degli Stati Uniti dedicato ai problemi legati allo sfruttamento minorile. Dopo aver ricevuto una segnalazione, il NCMEC potrebbe inoltrarla alle forze dell'ordine di tutto il mondo.

Che cos'è una segnalazione CyberTipLine e che tipo di informazioni include?

Quando Google viene a conoscenza di potenziale materiale pedopornografico, fa una segnalazione al NCMEC. Queste segnalazioni sono comunemente chiamate segnalazioni CyberTipLine o CyberTip. Cerchiamo inoltre di identificare i casi relativi ad abusi fisici su minori, produzione di materiale pedopornografico o traffico di minori. In queste situazioni inviamo una segnalazione CyberTip supplementare al NCMEC per consentire di dare priorità alla pratica. Le segnalazioni inviate al NCMEC potrebbero includere informazioni che identificano l'utente, la vittima minorenne e i contenuti in violazione e/o altri dati contestuali utili.

Di seguito sono riportati alcuni esempi reali dell'impatto delle segnalazioni CyberTip inviate da Google. Questi esempi, sebbene non esaustivi, danno un'idea della vasta gamma di segnalazioni che effettuiamo.  

  • Una segnalazione Google CyberTip ha riguardato vari contenuti di materiale pedopornografico relativo a bambini delle elementari, in un contesto scolastico. Alcuni di questi contenuti segnalati in precedenza non erano stati identificati da Google e sembravano essere stati prodotti dal proprietario dell'Account Google. Il NCMEC ha inoltrato la segnalazione alle forze dell'ordine, portando così a identificare e mettere in sicurezza i due minorenni raffigurati nelle immagini pedopornografiche segnalate.  
  • Una segnalazione Google CyberTip ha riguardato l'adescamento e la produzione di materiale pedopornografico da parte del proprietario di un account, che aveva richiesto la realizzazione di diversi video che raffigurassero la partecipazione diretta e attiva ad abusi sessuali su decine di maschi minorenni in cambio di denaro. Il NCMEC ha inoltrato la segnalazione alle forze dell'ordine. Il proprietario dell'account è stato condannato per la produzione di materiale pedopornografico e diverse decine di minorenni vittime di abuso continuato sono state identificate e messe in sicurezza.
  • Una segnalazione Google CyberTip ha riguardato un singolo contenuto di materiale pedopornografico noto che ha portato all'arresto del proprietario dell'account, che secondo le forze dell'ordine è stato trovato in possesso di una mole di ulteriore materiale pedopornografico e, inoltre, era direttamente coinvolto nella partecipazione attiva ad abusi su minori affidati alle sue cure e nel traffico relativo. Grazie all'impegno di Google, del NCMEC e delle forze dell'ordine, tre minorenni sono stati sottratti agli abusi sessuali.
  • Una segnalazione Google CyberTip ha riguardato materiale pedopornografico prodotto dal proprietario dell'Account Google e richiesto a minorenni a cui il proprietario dell'account aveva accesso online. Il proprietario dell'account è stato successivamente arrestato e le forze dell'ordine hanno stabilito che abusava dei suoi pazienti, approfittando della fiducia di cui godeva in qualità di professionista sanitario, e aveva accesso diretto a minorenni online a cui chiedeva di produrre materiale pedopornografico.

In che modo Google combatte i rischi del materiale pedopornografico nell'ambito dell'AI generativa (GenAI)?

Il materiale pedopornografico creato con l'AI o le immagini generate al computer che raffigurano abusi sessuali su minori sono una minaccia che Google prende molto sul serio. Il nostro impegno per rilevare, rimuovere e segnalare il materiale pedopornografico ha sempre incluso contenuti in violazione che coinvolgono minorenni, immagini modificate di un minorenne identificabile coinvolto in comportamenti sessualmente espliciti e immagini generate al computer che non sono distinguibili da un minorenne reale coinvolto in simili comportamenti.

Google pone grande enfasi sulla sicurezza dei minori al momento di creare i propri prodotti e modelli di AI generativa. Seguiamo i principi dell'AI generativa responsabile di Google nella protezione di tutti i modelli disponibili pubblicamente di Google e dei servizi basati questi modelli.

Implementiamo una serie di protezioni per la sicurezza dei minori per i nostri modelli e prodotti di AI generativa. Ciò può includere protezioni contro la presenza di materiale pedopornografico nei dati di addestramento alla base dei nostri modelli, contro i prompt che cercano e producono materiale pedopornografico e contro output in violazione.  Prima del lancio pubblico, eseguiamo inoltre test rigorosi sulla sicurezza dei minori sui nostri modelli per comprendere e ridurre la possibilità che venga generato materiale pedopornografico.

Inoltre, collaboriamo con altri operatori dell'ecosistema della sicurezza dei minori, tra cui Technology Coalition e le ONG per la sicurezza dei minori, per condividere e comprendere le best practice con la continua evoluzione di questa tecnologia.

Che cosa fa Google per impedire agli utenti di cercare materiale pedopornografico nella Ricerca?

Google implementa principi di sicurezza intrinseca per impedire agli utenti di cercare materiale pedopornografico nella Ricerca. Nel rispetto delle nostre norme blocchiamo i risultati di ricerca che portano a materiale pedopornografico che presumibilmente vittimizza sessualmente, mette in pericolo o sfrutta in altro modo i minorenni. Aggiorniamo di continuo i nostri algoritmi per lottare contro queste minacce in continua evoluzione. Rimuoviamo sempre il materiale pedopornografico quando viene identificato e retrocediamo tutti i contenuti dei siti con un'alta percentuale di contenuti pedopornografici. Applichiamo protezioni aggiuntive alle ricerche mirate a trovare contenuti pedopornografici. Filtriamo i risultati sessuali espliciti se la query di ricerca è apparentemente relativa a materiale pedopornografico. Inoltre, per le query relative a contenuti espliciti per adulti, la Ricerca non restituisce immagini che includono minorenni, in modo da impedire l'associazione tra minori e contenuti di natura sessuale. In molti paesi, gli utenti che inseriscono query chiaramente correlate a materiale pedopornografico visualizzano un avviso in evidenza che afferma che le immagini pedopornografiche sono illegali e fornisce informazioni su come segnalare questi contenuti a organizzazioni attendibili. Abbiamo rilevato che, quando vengono visualizzati questi avvisi, è meno probabile che gli utenti continuino a cercare questo materiale.

In che modo Google aiuta l'ecosistema della sicurezza dei minori a contrastare il materiale pedopornografico?

Il team per la sicurezza dei minori di Google crea tecnologia che rileva, segnala e rimuove accuratamente il materiale pedopornografico per proteggere i nostri utenti e impedire abusi a danno di minori nel contesto dei prodotti Google. Abbiamo sviluppato il toolkit per la sicurezza dei minori per garantire che anche l'intero ecosistema abbia accesso a questa potente tecnologia e per contribuire a impedire la proliferazione online di materiale pedopornografico. Inoltre, mettiamo a disposizione del NCMEC l'API Hash Matching di Google per aiutare questo portale a dare la priorità alle segnalazioni CyberTipline e a esaminarle in modo più efficace, consentendo al suo team di concentrarsi sulle segnalazioni relative a minorenni che hanno bisogno di aiuto immediato. 

Condividiamo inoltre indicatori di abuso e sfruttamento sessuale di minori per consentire la rimozione del materiale pedopornografico dall'intero ecosistema. Condividiamo milioni di hash di materiale pedopornografico con il database di hash del settore del NCMEC, in modo che anche altri fornitori possano accedervi e utilizzarli. Inoltre, abbiamo aderito a Project Lantern, un programma che consente alle aziende tecnologiche di condividere indicatori pertinenti per contrastare l'abuso sessuale e lo sfruttamento online in modo sicuro e responsabile, comprendendo che questo abuso può essere presente su piattaforme e servizi diversi.

Inoltre, siamo un membro attivo di diverse coalizioni, come Technology Coalition, WeProtect Global Alliance e INHOPE, che uniscono società e ONG per lo sviluppo di soluzioni che interrompano lo scambio di materiale pedopornografico online e impediscano lo sfruttamento sessuale di minorenni. Diamo la priorità alla partecipazione a queste coalizioni e, in collaborazione con ONG come NCMEC e Thorn, condividiamo la nostra esperienza, esploriamo le best practice e scopriamo di più sulle ultime minacce ai principali problemi relativi alla sicurezza dei minori.

In che modo gli enti statali possono inviare a Google richieste di tipo legale associate a una segnalazione CyberTip?

Dopo aver ricevuto una segnalazione, il NCMEC potrebbe inoltrarla alle forze dell'ordine di tutto il mondo. Le forze dell'ordine potranno poi inviare a Google un atto giudiziario per avere ulteriori informazioni (Sistema di gestione richieste per le forze dell'ordine, LERS). Per agevolare queste richieste, Google fornisce un sistema online che consente agli enti statali verificati di inviare richieste di ulteriori informazioni in modo sicuro. Questi enti possono poi visualizzare lo stato delle richieste inviate utilizzando questo sistema online e, infine, scaricare la risposta di Google alla loro richiesta. Per maggiori informazioni sul LERS o sulla configurazione di un account LERS, visita il sito lers.google.com. Per maggiori informazioni, consulta le nostre norme relative alla modalità di gestione da parte di Google delle richieste dei governi di informazioni sugli utenti.

 Come faccio a segnalare presunto materiale pedopornografico?

Se trovi un link, un sito web o qualsiasi contenuto che include materiale pedopornografico, puoi segnalarlo alla polizia, al NCMEC o a un'organizzazione competente nel tuo paese. Se noti o riscontri contenuti o comportamenti inappropriati per i minori sui prodotti Google, puoi segnalarceli in molti modi, anche tramite le segnalazioni di reati che comportano rischi per i bambini (ad esempio adescamento, estorsione sessuale o altre forme di sfruttamento sessuale di minori) che si verificano sui prodotti Google. Puoi contribuire a evitare che tuo figlio venga contattato da estranei sui prodotti Google e filtrare i contenuti che vengono mostrati a tuo figlio gestendo le impostazioni del suo Account Google.

Quali team esaminano le segnalazioni di materiale pedopornografico?

La revisione da parte di persone fisiche è un aspetto fondamentale del nostro costante impegno per contrastare il materiale pedopornografico. I membri del nostro team mettono a disposizione di questo lavoro la loro profonda esperienza, con formazione in giurisprudenza, sicurezza e difesa dei minori, servizi sociali e attività investigative informatiche, tra le altre discipline. Sono stati appositamente formati sull'ambito di applicazione delle nostre norme e su ciò che costituisce legalmente materiale pedopornografico. I team di revisori hanno una formazione specializzata e ricevono supporto per il loro benessere. Visita questa pagina per avere ulteriori informazioni sull'approccio di Google alla moderazione dei contenuti, incluso il modo in cui supportiamo la salute mentale dei revisori.

A quale periodo di tempo fa riferimento questo rapporto?

Le metriche presentate qui rappresentano i dati raccolti dalle ore 00:00 PST del 1° gennaio alle ore 23:59 PDT del 30 giugno e dalle ore 00:00 PDT del 1° luglio alle ore 23:59 PST del 31 dicembre, se non diversamente specificato.
App Google
Menu principale
2605691770639990993
true