Întrebări frecvente despre eforturile companiei Google de a combate materialele online cu abuzuri sexuale asupra copiilor

Ce reprezintă CSAM?

CSAM înseamnă materiale cu abuzuri sexuale asupra copiilor. Acestea constituie orice reprezentare vizuală, între care fotografii, videoclipuri și imagini generate pe computer, care prezintă folosirea unui minor care are un comportament sexual explicit. Admitem că CSAM nu este același lucru cu nuditatea infantilă și politicile și sistemele noastre au fost create special pentru a recunoaște și deosebi imaginile inofensive, cum ar fi cele cu un copil care se joacă în cada de baie sau în curtea din spatele casei, care nu sunt de natură sexuală și nu reprezintă CSAM, de imaginile care prezintă abuzul sexual asupra unui copil sau expunerea lascivă a organelor genitale și a zonelor intime, care contravin legislației internaționale. Există și alte tipuri de imagini obscene sau cu exploatare care conțin sau reprezintă copii, cum ar fi reprezentări în desene animate ale unor abuzuri sexuale asupra copiilor sau tentative de reprezentare comică a exploatării sexuale a copiilor. Aceste imagini pot, de asemenea, să încalce legislația internațională.

Care este abordarea Google privind combaterea CSAM?

Google se angajează să combată materialele CSAM din mediul online și să împiedice folosirea platformelor sale pentru crearea, stocarea sau distribuirea acestora. Dedicăm resurse importante (tehnologie, oameni și timp) pentru a detecta, a descuraja, a elimina și a raporta conținutul care prezintă exploatarea sexuală a copiilor și comportamentul asociat. Pentru mai multe informații despre eforturile noastre de a proteja copiii și familiile, consultați Centrul pentru siguranță Google, Regulile Comunității YouTube, site-ul nostru Protecting Children și blogul nostru pentru informații despre cum detectăm, eliminăm și raportăm materialele CSAM.

Cum identifică Google materialele CSAM pe platformele sale?

Investim mult pentru a combate exploatarea sexuală a copiilor online și folosim tehnologia pentru a descuraja, a detecta și a elimina materialele CSAM de pe platformele noastre. Aici sunt incluse detectarea automată și examinarea manuală, pe lângă folosirea rapoartelor trimise de utilizatori și de terți, cum ar fi ONG-urile. Implementăm detectarea prin tehnologia de hashing, inclusiv CSAI Match de pe YouTube, pentru a detecta materialele CSAM cunoscute. În plus, folosim clasificatori de învățare automată pentru a descoperi materiale CSAM noi, care sunt apoi examinate de echipele noastre de specialiști pentru confirmare. Prin detectarea materialelor CSAM noi, ajutăm ecosistemul pentru siguranța copiilor în mai multe moduri, între care identificarea victimelor minore care au nevoie de protecție și contribuția la setul de hashuri, pentru a ne îmbunătăți abilitățile de a detecta materialele CSAM cunoscute. Cu ajutorul clasificatorilor, Google a creat API-ul Content Safety, pe care îl pune la dispoziția entităților eligibile pentru a le ajuta să stabilească priorități privind conținutul abuziv în vederea examinării manuale.


Atât CSAI Match, cât și API-ul Content Safety sunt disponibile pentru entitățile eligibile care vor să combată abuzurile pe propriile platforme. Aflați mai multe detalii aici.

Cum procedează Google atunci când detectează CSAM pe propriile platforme?

Când detectăm materiale CSAM pe platformele noastre, le eliminăm, trimitem un raport CyberTipline la NCMEC și, în funcție de natura și gravitatea încălcării, este posibil să trimitem un avertisment, să limităm accesul unui cont la anumite produse sau servicii Google ori să dezactivăm Contul Google respectiv. În plus, este posibil să facem o altă examinare a Contului Google pentru a identifica și alte materiale CSAM și/sau pentru a ne asigura că luăm în considerare contextul relevant, astfel încât să luăm măsuri de aplicare adecvate și proporționale asupra materialelor identificate în Contul Google.

 

NCMEC este un centru de schimb de informații și de raportare complexă din Statele Unite pentru probleme legate de exploatarea copiilor. După ce NCMEC primește un raport, organizația poate să îl trimită instituțiilor de aplicare a legii din întreaga lume.

Ce este raportul CyberTipline și ce tip de informații include?

Când Google ia cunoștință de existența unor materiale CSAM, trimite un raport către NCMEC. Aceste rapoarte se numesc de obicei rapoarte CyberTipline sau CyberTips. În plus, încercăm să identificăm cazurile care implică abuzul fizic asupra unui minor, crearea de CSAM sau traficul de copii. În astfel de cazuri, trimitem un raport CyberTip suplimentar către NCMEC pentru a contribui la stabilirea priorităților. Raportul trimis către NCMEC poate include informații de identificare a utilizatorului, a victimei minore și conținutul care încalcă regulile și/sau alte date contextuale utile.

Mai jos sunt câteva exemple ale impactului în lumea reală al rapoartelor CyberTip trimise de Google. Acestea oferă o perspectivă asupra gamei largi de rapoarte trimise de Google, însă nu sunt exhaustive.  

  • Un raport Cybertip trimis de Google a semnalat mai multe materiale CSAM care prezentau copii din învățământul primar, realizate într-o sală de clasă. Unele dintre materialele CSAM raportate fuseseră identificate anterior de Google și păreau a fi create de titularul unui Cont Google. NCMEC a redirecționat raportul instituțiilor de aplicare a legii, care au identificat și asigurat protecția a doi copii minori care apăreau în imaginile CSAM raportate.  
  • Un raport Cybertip trimis de Google a semnalat solicitarea și crearea de materiale CSAM de către titularul unui cont, care a cerut realizarea mai multor videoclipuri care prezentau abuzul fizic asupra a zeci de băieți minori în schimbul unor sume de bani. NCMEC a redirecționat raportul instituțiilor de aplicare a legii. Titularul contului a fost condamnat pentru crearea de materiale CSAM și câteva zeci de copii au fost identificați și protejați împotriva continuării abuzului.
  • Un raport Cybertip trimis de Google a semnalat un singur element de conținut CSAM cunoscut, care a dus la arestarea titularului contului respectiv despre care, conform instituțiilor de aplicare a legii, s-a descoperit că se afla în posesia mult mai multor materiale CSAM și că era direct implicat în abuzul fizic asupra minorilor aflați în grija sa și că punea minorii respectivi și la dispoziția altor persoane pentru a-i abuza. Datorită eforturilor făcute de Google, NCMEC și instituțiile de aplicare a legii, trei copii au fost salvați de abuzuri sexuale.
  • Un raport Cybertip trimis de Google a semnalat materiale CSAM realizate de titularul unui Cont Google și solicitate de la minorii cu care titularul contului intra în legătură online. Titularul contului a fost arestat ulterior și instituțiile de aplicare a legii au stabilit că era o persoană de încredere ca profesionist din domeniul sănătății. Aceasta se folosea de poziția respectivă pentru a abuza pacienții aflați în grija sa și avea legătură directă online cu minorii, cărora le solicita crearea de materiale CSAM.

Cum combate Google riscurile legate de materialele CSAM în ecosistemul AI-ului generativ?

Materialele CSAM generate de AI sau imaginile generate pe computer care prezintă abuzuri sexuale asupra copiilor reprezintă o amenințare pe care Google o tratează cu foarte mare seriozitate. Activitățile noastre de detectare, eliminare și raportare a materialelor CSAM au inclus întotdeauna conținutul care încalcă regulile care prezintă minori reali, imaginile modificate cu un minor care poate fi identificat și care are un comportament sexual explicit și imaginile generate pe computer care par că prezintă un minor real care are un astfel de comportament.

Google pune accentul pe siguranța copiilor atunci când creează modele și produse cu AI generativ. Respectăm principiile Google privind AI-ul generativ responsabil pentru a proteja toate modelele Google disponibile public și serviciile create folosind aceste modele.

Implementăm diverse măsuri de protecție pentru siguranța copiilor pentru modelele și produsele Google cu AI generativ. Aici pot fi incluse măsuri de protecție împotriva prezenței materialelor CSAM în datele de învățare care stau la baza modelelor noastre, împotriva solicitărilor de căutare și de generare a materialelor CSAM și împotriva rezultatelor care încalcă regulile. În plus, desfășurăm teste eficiente pentru siguranța copiilor cu modelele noastre înainte de lansarea publică, pentru a înțelege și a reduce posibilitatea de generare a materialelor CSAM.

Colaborăm și cu alte entități din ecosistemul pentru siguranța copiilor, inclusiv Technology Coalition și ONG-uri pentru siguranța copiilor, pentru a face schimb de recomandări și a le înțelege pe măsură ce această tehnologie evoluează.

Ce face Google pentru a descuraja utilizatorii să caute materiale CSAM în Căutare?

Google implementează principii de siguranță prin design pentru a descuraja utilizatorii să caute CSAM în Căutare. Conform politicii Google, rezultatele căutării care trimit la materiale cu abuzuri sexuale asupra copiilor care par să victimizeze sexual, să pună în pericol sau să exploateze altfel copiii sunt blocate. Google își actualizează constant algoritmii pentru a combate aceste amenințări în continuă schimbare. Google aplică măsuri de protecție suplimentare pentru căutările despre care stabilește că vizează conținutul CSAM. Google elimină rezultatele explicite sexuale dacă termenul de căutare pare să vizeze CSAM și, în cazul interogărilor după conținut explicit pentru adulți, Căutarea nu va returna imagini care includ copii, pentru a dezasocia copiii și conținutul sexual. Pe lângă eliminarea conținutului CSAM din indexul Căutării atunci când este identificat, mutăm jos tot conținutul de pe site-urile care au un procent mare de conținut CSAM. În multe țări, utilizatorilor care fac căutări care au legătură clară cu materialele CSAM li se afișează un avertisment vizibil care îi informează că imaginile cu abuzuri sexuale asupra copiilor sunt ilegale, cu informații despre raportarea acestui tip de conținut către organizații de încredere. Am constatat că, atunci când se afișează aceste avertismente, scad șansele ca utilizatorii să caute în continuare astfel de materiale.

Cum contribuie Google la ecosistemul pentru siguranța copiilor pentru a combate materialele CSAM?

Echipa Google responsabilă cu siguranța copiilor creează tehnologii care detectează corect, raportează și elimină materialele CSAM pentru a proteja utilizatorii și pentru a împiedica vătămarea copiilor în cadrul produselor Google. Am dezvoltat Setul de instrumente pentru siguranța copiilor pentru a ne asigura că și ecosistemul mai larg are acces la aceste tehnologii eficiente și a ajuta la prevenirea răspândirii online a materialelor cu abuzuri sexuale asupra copiilor. În plus, Google oferă organizației NCMEC API-ul Hash Matching, pentru a o ajuta să stabilească prioritățile privind rapoartele CyberTipline și să le examineze mai eficient, putând astfel să se concentreze asupra rapoartelor despre copii care au nevoie de ajutor imediat.

În plus, trimitem semnale privind exploatarea și abuzurile sexuale asupra copiilor pentru a permite eliminarea materialelor CSAM din ecosistemul mai larg. Trimitem milioane de valori hash pentru materiale CSAM către baza de date cu valori hash din industrie a NCMEC, pentru ca și alți furnizori să le poată accesa și folosi. În plus, ne-am înscris în proiectul Lantern, un program care le dă posibilitatea companiilor tehnologice să trimită semnale relevante pentru combaterea exploatării și abuzurilor sexuale online într-un mod sigur și responsabil, întrucât acest abuz poate să aibă loc pe diferite platforme și în diferite servicii.

În plus, Google este membru activ al mai multor coaliții, cum ar fi Technology Coalition, WeProtect Global Alliance și INHOPE, care reunesc companii și ONG-uri pentru a dezvolta soluții care împiedică schimbul de materiale CSAM online și împiedică exploatarea sexuală a copiilor. Google acordă prioritate calității de membru al acestor coaliții, iar în colaborarea sa cu ONG-uri precum NCMEC și Thorn, își împărtășește cunoștințele, explorează cele mai bune practici și află mai multe despre cele mai recente amenințări legate de principalele probleme privind siguranța copiilor.

Cum pot agențiile guvernamentale să trimită la Google solicitări de natură juridică asociate unui raport CyberTip?

După ce NCMEC primește un raport, organizația poate să îl trimită instituțiilor de aplicare a legii din întreaga lume. Apoi, instituțiile de aplicare a legii pot trimite la Google un act de procedură juridică pentru a solicita mai multe informații (Sistemul de solicitări juridice – LERS). Pentru a facilita astfel de solicitări, Google oferă un sistem online care le permite agențiilor guvernamentale verificate să trimită în siguranță solicitări de informații suplimentare. Agențiile vor putea apoi să vadă starea solicitărilor trimise folosind acest sistem online și să descarce răspunsul companiei Google la solicitarea respectivă. Pentru informații suplimentare despre LERS sau pentru a crea un cont LERS, accesați lers.google.com. Pentru informații suplimentare, consultați politicile noastre pentru a afla Cum gestionează Google solicitările guvernamentale privind informațiile despre utilizatori.

Cum pot semnala materiale suspectate ca fiind CSAM?

În cazul în care găsiți un link, un site sau orice alt conținut care poate constitui CSAM, îl puteți raporta la poliție, către NCMEC sau unei organizații competente din zona dvs. Dacă vedeți un conținut sau comportament neadecvat implicând copii în produsele Google, există multe metode de a-l raporta, inclusiv prin raportarea infracțiunilor care periclitează siguranța copiilor (de exemplu, ademenire în scopul exploatării sexuale, șantaj sexual, alte forme de exploatare sexuală a copiilor) care au loc în produsele Google. Puteți să împiedicați străinii să ia legătura cu copilul dvs. prin produsele Google și să filtrați conținutul pe care îl vede copilul prin gestionarea setărilor Contului său Google.

Ce echipe examinează rapoartele privind CSAM?

Examinarea manuală este o parte importantă a eforturilor noastre continue de a combate CSAM. Membrii echipei noastre aduc expertiză valoroasă acestui proces, având cunoștințe din domeniul juridic, siguranța și protecția copiilor, asistență socială și investigații cibernetice, printre altele. Aceștia sunt special pregătiți atât în aria de acoperire a politicilor noastre, cât și în ceea ce constituie în mod legal materiale cu abuzuri asupra copiilor. Echipele de examinatori beneficiază de formare specializată și de asistență pentru sănătatea mintală. Aici aflați mai multe despre modul în care Google abordează moderarea conținutului, inclusiv cum asigură sănătatea mintală a examinatorilor.

Ce interval de timp acoperă acest raport?

Valorile prezentate aici reprezintă datele colectate între 00:00 PST, pe 1 ianuarie, și 23:59 PDT, pe 30 iunie și între 00:00 PDT, pe 1 iulie, și 23:59 PST, pe 31 decembrie, cu excepția cazului în care se prevede altfel.
Meniu principal
4831940135574811460
true
Căutaţi în Centrul de ajutor
true
true
true
false
false