Συνήθεις ερωτήσεις σχετικά με τις προσπάθειες της Google για την εξάλειψη του υλικού σεξουαλικής κακοποίησης παιδιών στο διαδίκτυο

Τι είναι το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM);

Τα αρχικά CSAM σημαίνουν "child sexual abuse material" δηλαδή υλικό σεξουαλικής κακοποίησης παιδιών. Το υλικό αυτό περιλαμβάνει οποιαδήποτε οπτική απεικόνιση, συμπεριλαμβανομένων ενδεικτικά, φωτογραφιών, βίντεο και εικόνων που δημιουργούνται από υπολογιστή, όπου κάποιος ανήλικος συμμετέχει σε σεξουαλικά άσεμνη συμπεριφορά. Αναγνωρίζουμε ότι το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) δεν είναι το ίδιο με το γυμνό παιδιών και οι πολιτικές και τα συστήματά μας έχουν σχεδιαστεί ειδικά ώστε να αναγνωρίζουν και να διακρίνουν τις καλοπροαίρετες εικόνες, όπως ένα παιδί που παίζει στην μπανιέρα ή στον κήπο, οι οποίες δεν είναι σεξουαλικού χαρακτήρα και δεν αποτελούν υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), από εικόνες που περιλαμβάνουν τη σεξουαλική κακοποίηση ενός παιδιού ή άσεμνη έκθεση γεννητικών οργάνων και προσωπικών περιοχών κατά παράβαση των νομοθεσιών σε ολόκληρο τον κόσμο. Επιπλέον, υπάρχουν και άλλοι τύποι άσεμνων εικόνων ή εικόνων εκμετάλλευσης παιδιών που περιλαμβάνουν ή αναπαριστούν παιδιά, όπως απεικονίσεις σεξουαλικής κακοποίησης παιδιών σε μορφή κινουμένων σχεδίων ή χιουμοριστικές αναπαραστάσεις σεξουαλικής εκμετάλλευσης παιδιών. Αυτές οι εικόνες ενδέχεται, επίσης, να συνιστούν παράβαση των νομοθεσιών σε ολόκληρο τον κόσμο.

Ποια είναι η προσέγγιση της Google για την καταπολέμηση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM);

Η Google δεσμεύεται για την καταπολέμηση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στο διαδίκτυο και την αποτροπή της χρήσης των πλατφορμών της για τη δημιουργία, την αποθήκευση ή τη διανομή αυτού του υλικού. Αφιερώνουμε σημαντικούς πόρους, όπως τεχνολογικά μέσα, ανθρώπινο δυναμικό και χρόνο, για τον εντοπισμό, την αποτροπή, την κατάργηση και την αναφορά περιεχομένου και συμπεριφοράς σεξουαλικής εκμετάλλευσης παιδιών. Για περισσότερες πληροφορίες σχετικά με τις προσπάθειές μας για την προστασία των παιδιών και των οικογενειών, ανατρέξτε στο Κέντρο ασφαλείας Google, στις Οδηγίες κοινότητας του YouTube, στον Ιστότοπό μας για την προστασία των παιδιών και στο ιστολόγιό μας σχετικά με τον τρόπο με τον οποίο εντοπίζουμε, καταργούμε και αναφέρουμε το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM).

Πώς προσδιορίζει η Google το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) στην πλατφόρμα της;

Επενδύουμε σημαντικά στην καταπολέμηση της σεξουαλικής εκμετάλλευσης παιδιών στο διαδίκτυο και χρησιμοποιούμε την τεχνολογία για την αποτροπή, τον εντοπισμό και την κατάργηση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) από τις πλατφόρμες μας. Αυτό περιλαμβάνει τον αυτοματοποιημένο εντοπισμό και τον μη αυτόματο έλεγχο, καθώς και την αξιοποίηση των αναφορών που υποβάλλονται από τους χρήστες μας και τρίτα μέρη, όπως οι ΜΚΟ. Αναπτύσσουμε την αντιστοίχιση κατακερματισμού, συμπεριλαμβανομένης της τεχνολογίας CSAI Match του YouTube, για τον εντοπισμό γνωστού υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).  Επίσης, αναπτύσσουμε κατηγοριοποιητές μηχανικής μάθησης για την ανακάλυψη υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που δεν έχει εμφανιστεί ξανά, το οποίο επιβεβαιώνεται στη συνέχεια από τις ομάδες των ειδικών ελέγχου. Ο εντοπισμός υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που δεν έχει εμφανιστεί ξανά ενισχύει το οικοσύστημα ασφάλειας των παιδιών με πολλούς τρόπους, όπως με τον προσδιορισμό παιδιών-θυμάτων που χρειάζονται προστασία και τη συνεισφορά στο σύνολο κατακερματισμών μας, προκειμένου να βελτιώνονται οι δυνατότητές μας για ανίχνευση γνωστού υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Χρησιμοποιώντας τους κατηγοριοποιητές της, η Google δημιούργησε το Content Safety API, το οποίο παρέχει σε άλλα μέρη προκειμένου να δοθεί προτεραιότητα στο περιεχόμενο κακοποίησης για μη αυτόματο έλεγχο. 


Τόσο η Αντιστοίχιση εικόνων σεξουαλικής κακοποίησης παιδιών (CSAI) όσο και το API ασφάλειας περιεχομένου είναι διαθέσιμα σε εγκεκριμένα νομικά πρόσωπα που επιθυμούν να καταπολεμήσουν την κακοποίηση στις πλατφόρμες τους. Ανατρέξτε εδώ για περισσότερες λεπτομέρειες.

Τι κάνει η Google όταν ανιχνεύει υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) στην πλατφόρμα της;

Όταν εντοπίσουμε υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) στις πλατφόρμες μας, το καταργούμε, υποβάλουμε μια αναφορά CyberTipline στο NCMEC και, ανάλογα με τη φύση και τη σοβαρότητα της παράβασης, ενδέχεται να παράσχουμε μια προειδοποίηση, να περιορίσουμε την πρόσβαση ενός λογαριασμού σε συγκεκριμένα προϊόντα ή υπηρεσίες Google ή να απενεργοποιήσουμε τον Λογαριασμό Google. Επίσης, μπορεί να προβούμε σε περαιτέρω έλεγχο του Λογαριασμού Google για να εντοπίσουμε πρόσθετο υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) ή/και να βεβαιωθούμε ότι λαμβάνουμε υπόψη το σχετικό ευρύτερο πλαίσιο προκειμένου να διασφαλίσουμε ότι προβαίνουμε σε κατάλληλες και αναλογικές ενέργειες λήψης μέτρων σε σχέση με το υλικό που εντοπίζεται στον Λογαριασμό Google.

 

Το NCMEC λειτουργεί ως γραφείο πληροφοριών και αποκλειστικό κέντρο αναφοράς στις Ηνωμένες Πολιτείες, για ζητήματα που σχετίζονται με την εκμετάλλευση παιδιών. Όταν μια αναφορά ληφθεί από το NCMEC, μπορεί να προωθηθεί στις υπηρεσίες επιβολής του νόμου σε ολόκληρο τον κόσμο.

Τι είναι η αναφορά CyberTipline και τι είδους πληροφορίες περιλαμβάνει;

Μόλις η Google ενημερωθεί σχετικά με εμφανές υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), υποβάλλει μια αναφορά στο NCMEC. Αυτές οι αναφορές ονομάζονται συνήθως αναφορές CyberTipLine ή CyberTip. Επιπλέον, προσπαθούμε να εντοπίσουμε υποθέσεις που αφορούν την ενεργή κακοποίηση ανηλίκου, την παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) ή την εμπορία παιδιών. Σε αυτές τις περιπτώσεις, στέλνουμε μια συμπληρωματική αναφορά CyberTip στο NCMEC, προκειμένου να δοθεί προτεραιότητα στο ζήτημα. Μια αναφορά που αποστέλλεται στο NCMEC μπορεί να περιλαμβάνει πληροφορίες που ταυτοποιούν τον χρήστη, το ανήλικο θύμα και μπορεί να περιλαμβάνει το παραβατικό περιεχόμενο ή/και άλλα χρήσιμα συμπληρωματικά δεδομένα.

Ακολουθούν ορισμένα παραδείγματα του αντίκτυπου στον πραγματικό κόσμο των αναφορών CyberTip που έχει υποβάλει η Google. Τα παραδείγματα παρέχουν μια ματιά στην ευρεία γκάμα αναφορών που υποβάλλουμε, αλλά δεν καλύπτουν το σύνολό τους.  

  • Ένα Google Cybertip ανέφερε πολλά τμήματα υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που περιλάμβαναν παιδιά δημοτικού σχολείου και είχαν ληφθεί σε περιβάλλον σχολικής τάξης. Μέρος του αναφερόμενου υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) δεν είχε στο παρελθόν αναγνωριστεί από την Google και φαινόταν να έχει παραχθεί από τον κάτοχο του Λογαριασμού Google. Το NCMEC προώθησε την αναφορά στις αρχές επιβολής του νόμου, γεγονός που οδήγησε στην ταυτοποίηση και την προστασία των δύο ανήλικων παιδιών που εμφανίζονταν στις αναφερόμενες εικόνες υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).  
  • Ένα Google Cybertip ανέφερε την επιδίωξη και παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) από έναν κάτοχο λογαριασμού, ο οποίος ζήτησε τη δημιουργία πολλών βίντεο όπου εμφανιζόταν η σωματική κακοποίηση δεκάδων ανήλικων αγοριών έναντι χρημάτων. Το NCMEC προώθησε την αναφορά στις αρχές επιβολής του νόμου. Ο κάτοχος του λογαριασμού καταδικάστηκε για παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) και δεκάδες παιδιά ταυτοποιήθηκαν και προστατεύτηκαν από συνεχιζόμενη κακοποίηση.
  • Ένα Google CyberTip ανέφερε ένα μεμονωμένο τμήμα γνωστού περιεχομένου υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που οδήγησε στη σύλληψη του κατόχου του λογαριασμού, ο οποίος, σύμφωνα με τις αρχές επιβολής του νόμου, διαπιστώθηκε ότι είχε στην κατοχή του πολύ ακόμα υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) και εμπλεκόταν άμεσα στη σωματική κακοποίηση ανηλίκων υπό την φροντίδα του, καθώς και στην παροχή αυτών των ανηλίκων για κακοποίηση από άλλους.  Χάρη στις προσπάθειες της Google, του NCMEC και των αρχών επιβολής του νόμου, τρία παιδιά διασώθηκαν από σεξουαλική κακοποίηση.
  • Ένα Google Cybertip ανέφερε υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) που είχε παραχθεί από τον κάτοχο Λογαριασμού Google και είχε ζητηθεί από ανηλίκους στους οποίους ο κάτοχος του λογαριασμού είχε πρόσβαση στο διαδίκτυο. Ο κάτοχος του λογαριασμού αργότερα συνελήφθη και διαπιστώθηκε από τις αρχές επιβολής του νόμου ότι κατείχε θέση εμπιστοσύνης ως επαγγελματίας υγείας. Χρησιμοποιούσε τη θέση αυτή για να κακοποιεί ασθενείς υπό τη φροντίδα του και είχε άμεση πρόσβαση σε ανηλίκους στο διαδίκτυο από τους οποίους ζητούσε την παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).

Πώς καταπολεμά η Google τους κινδύνους του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στον χώρο του generative AI (GenAI);

Το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) που δημιουργήθηκε από AI ή οι εικόνες που έχουν δημιουργηθεί από υπολογιστή και απεικονίζουν τη σεξουαλική κακοποίηση παιδιών είναι μια απειλή που λαμβάνει η Google πολύ σοβαρά υπόψη. Το έργο μας για τον εντοπισμό, την κατάργηση και την αναφορά υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) περιλάμβανε πάντα παραβατικό περιεχόμενο που αφορά πραγματικούς ανηλίκους, τροποποιημένες εικόνες ενός αναγνωρίσιμου ανηλίκου που επιδίδεται σε σεξουαλικά άσεμνη συμπεριφορά και εικόνες που δημιουργούνται από υπολογιστή και οι οποίες είναι πανομοιότυπες με έναν πραγματικό ανήλικο ο οποίος επιδίδεται σε τέτοιου είδους συμπεριφορά.

Η Google δίνει ιδιαίτερη έμφαση στην ασφάλεια των παιδιών κατά τη δημιουργία των δικών της μοντέλων και προϊόντων GenAI. Ακολουθούμε τις αρχές υπευθυνότητας για το generative AI της Google για την προστασία όλων των δημόσια διαθέσιμων μοντέλων της Google και των υπηρεσιών που βασίζονται σε αυτά τα μοντέλα.

Αναπτύσσουμε διάφορα μέτρα προστασίας για την ασφάλεια των παιδιών για τα μοντέλα και τα προϊόντα GenAI. Σε αυτά ενδέχεται να περιλαμβάνονται μέτρα προστασίας κατά της παρουσίας υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στα δεδομένα εκπαίδευσης στα οποία βασίζονται τα μοντέλα μας, κατά των οδηγιών που σχετίζονται με την αναζήτηση και την παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) και κατά τυχόν παραβατικών δεδομένων εξόδου.  Επίσης, πραγματοποιούμε αυστηρές δοκιμές για την ασφάλεια των παιδιών στα μοντέλα μας πριν από τη δημόσια κυκλοφορία τους, για να κατανοήσουμε και να περιορίσουμε την πιθανότητα δημιουργίας υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).

Συνεργαζόμαστε επίσης με άλλους φορείς που σχετίζονται με το οικοσύστημα ασφάλειας των παιδιών, συμπεριλαμβανομένου του Technology Coalition, καθώς και ΜΚΟ που δραστηριοποιούνται στον τομέα της ασφάλειας των παιδιών, για την κοινοποίηση και την κατανόηση των βέλτιστων πρακτικών, καθώς αυτή η τεχνολογία συνεχίζει να εξελίσσεται.

Τι κάνει η Google για να αποτρέπει τους χρήστες από την αναζήτηση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στην Αναζήτηση;

Η Google αναπτύσσει αρχές ασφαλείας από τον σχεδιασμό για να αποτρέπει τους χρήστες από την αναζήτηση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στην Αναζήτηση. Στο πλαίσιο της πολιτικής μας, αποκλείουμε αποτελέσματα αναζήτησης που οδηγούν σε υλικό σεξουαλικής κακοποίησης παιδιών, το οποίο φαίνεται να θυματοποιεί, να θέτει σε κίνδυνο ή να εκμεταλλεύεται παιδιά με άλλον τρόπο. Ενημερώνουμε συνεχώς τους αλγορίθμους μας για να καταπολεμήσουμε αυτές τις εξελισσόμενες απειλές. Εφαρμόζουμε πρόσθετα μέτρα προστασίας σε αναζητήσεις που καταλαβαίνουμε ότι επιζητούν περιεχόμενο υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Φιλτράρουμε άσεμνα σεξουαλικά αποτελέσματα, αν το ερώτημα αναζήτησης φαίνεται να επιδιώκει υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) και, για ερωτήματα που αναζητούν άσεμνο περιεχόμενο για ενηλίκους, η Αναζήτηση δεν εμφανίζει εικόνες που περιλαμβάνουν παιδιά, ώστε να καταργεί τη συσχέτιση μεταξύ παιδιών και σεξουαλικού περιεχομένου. Εκτός από την κατάργηση περιεχομένου με υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) από το ευρετήριο της Αναζήτησης σε περίπτωση εντοπισμού του, υποβιβάζουμε επίσης όλο το περιεχόμενο από ιστοτόπους με υψηλό ποσοστό περιεχομένου με υλικό σεξουαλικής κακοποίησης παιδιών (CSAM). Σε πολλές χώρες, στους χρήστες που εισάγουν ερωτήματα που σχετίζονται σαφώς με υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) προβάλλεται εμφανής ειδοποίηση ότι οι εικόνες σεξουαλικής κακοποίησης παιδιών είναι παράνομες, καθώς και πληροφορίες σχετικά με τον τρόπο αναφοράς αυτού του περιεχομένου σε αξιόπιστους οργανισμούς. Έχουμε διαπιστώσει ότι, όταν προβάλλονται αυτές οι ειδοποιήσεις, οι χρήστες είναι λιγότερο πιθανό να συνεχίσουν να αναζητούν αυτό το υλικό.

Πώς συνεισφέρει η Google στο οικοσύστημα ασφάλειας των παιδιών για την καταπολέμηση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM);

Η ομάδα της Google για την ασφάλεια των παιδιών αναπτύσσει τεχνολογία που εντοπίζει με ακρίβεια, αναφέρει CSAM και καταργεί υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), για να προστατεύει τους χρήστες και να αποτρέπει την κακοποίηση παιδιών στα προϊόντα Google. Αναπτύξαμε την Εργαλειοθήκη ασφαλείας παιδιών, για να διασφαλίσουμε ότι το ευρύτερο οικοσύστημα έχει επίσης πρόσβαση σε αυτή την ισχυρή τεχνολογία και για να συμβάλουμε στην αποτροπή της διάδοσης υλικού σεξουαλικής κακοποίησης παιδιών στο διαδίκτυο. Επιπλέον, παρέχουμε το Hash Matching API της Google στο NCMEC, ώστε να ιεραρχεί και να ελέγχει πιο αποδοτικά τις αναφορές CyberTipline και να μπορεί να εστιάζει στις αναφορές που αφορούν παιδιά τα οποία χρειάζονται άμεση βοήθεια. 

Επίσης, κοινοποιούμε ενδείξεις σεξουαλικής κακοποίησης και εκμετάλλευσης παιδιών, προκειμένου να είναι δυνατή η κατάργηση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) από το ευρύτερο οικοσύστημα. Κοινοποιούμε εκατομμύρια κατακερματισμούς υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στη βάση δεδομένων κατακερματισμού του κλάδου του NCMEC, προκειμένου άλλοι πάροχοι να μπορούν να αποκτήσουν πρόσβαση και να χρησιμοποιήσουν αυτούς τους κατακερματισμούς. Επίσης, συμμετέχουμε στο Project Lantern, ένα πρόγραμμα που επιτρέπει στις εταιρείες τεχνολογίας να κοινοποιούν σχετικές ενδείξεις για την καταπολέμηση της σεξουαλικής κακοποίησης και εκμετάλλευσης στο διαδίκτυο με ασφαλή και υπεύθυνο τρόπο, κατανοώντας ότι αυτή η κατάχρηση μπορεί να επεκταθεί σε διάφορες πλατφόρμες και υπηρεσίες.

Είμαστε επίσης ενεργό μέλος πολλών συνασπισμών, όπως η Technology Coalition, η WeProtect Global Alliance και η INHOPE, οι οποίες συνδέουν εταιρείες και ΜΚΟ για την ανάπτυξη λύσεων που διακόπτουν την ανταλλαγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στο διαδίκτυο και αποτρέπουν τη σεξουαλική εκμετάλλευση παιδιών. Η Google δίνει προτεραιότητα στη συμμετοχή της σε αυτούς τους συνασπισμούς και τη συνεργασία της με ΜΚΟ, όπως οι NCMEC και Thorn, μοιράζεται την εξειδίκευσή της, εξερευνεί βέλτιστες πρακτικές και μαθαίνει περισσότερα σχετικά με τις πιο πρόσφατες απειλές σε βασικά ζητήματα ασφάλειας των παιδιών.

Με ποιον τρόπο μπορούν οι δημόσιοι φορείς να στείλουν νομικά αιτήματα στην Google που συσχετίζονται με μια αναφορά CyberTip;

Όταν μια αναφορά ληφθεί από το NCMEC, μπορεί να προωθηθεί στις υπηρεσίες επιβολής του νόμου σε ολόκληρο τον κόσμο. Στη συνέχεια, οι υπηρεσίες επιβολής του νόμου μπορούν να απευθυνθούν στην Google για περαιτέρω πληροφορίες στο πλαίσιο της νομικής διαδικασίας (Law Enforcement Request System – LERS). Για τη διευκόλυνση των αιτημάτων αυτού του είδους, η Google παρέχει ένα διαδικτυακό σύστημα που επιτρέπει σε επαληθευμένους δημόσιους φορείς να υποβάλλουν με ασφάλεια αιτήματα για περαιτέρω πληροφορίες. Αυτοί οι φορείς μπορούν στη συνέχεια να ελέγξουν την κατάσταση των αιτημάτων που υποβλήθηκαν χρησιμοποιώντας το LERS και, τελικά, να κατεβάσουν την απάντηση της Google στο αίτημά τους. Για περισσότερες πληροφορίες σχετικά με το LERS ή για να ρυθμίσετε έναν λογαριασμό στο LERS, επισκεφτείτε τη διεύθυνση lers.google.com. Για περισσότερες πληροφορίες, ανατρέξτε στις πολιτικές μας σχετικά με τον τρόπο με τον οποίο η Google χειρίζεται τα κρατικά αιτήματα για πληροφορίες χρηστών.

 Πώς μπορώ να αναφέρω υποψίες για υλικό σεξουαλικής κακοποίησης παιδιών (CSAM);

Εάν εντοπίσετε έναν σύνδεσμο, έναν ιστότοπο ή οποιοδήποτε περιεχόμενο που αποτελεί υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), μπορείτε να το αναφέρετε στην αστυνομία, το NCMEC ή κάποιον αρμόδιο οργανισμό στην περιοχή σας. Εάν εντοπίσετε ή παρακολουθήσετε ακατάλληλο περιεχόμενο ή συμπεριφορά απέναντι σε παιδιά στα προϊόντα της Google, υπάρχουν πολλοί τρόποι να το αναφέρετε σε εμάς, μεταξύ άλλων μέσω αναφοράς αδικημάτων έκθεσης παιδιών σε κίνδυνο (π.χ. παραπλάνηση, σεξουαλικός εκβιασμός, άλλες μορφές σεξουαλικής εκμετάλλευσης παιδιών) που προκύπτουν σε προϊόντα Google. Μπορείτε να αποτρέψετε την επικοινωνία άλλων ατόμων με το παιδί σας στα προϊόντα της Google και να φιλτράρετε το περιεχόμενο που βλέπει το παιδί σας με τη διαχείριση των ρυθμίσεων του Λογαριασμού Google του παιδιού σας.

Ποιες ομάδες ελέγχουν τις αναφορές υλικού σεξουαλικής κακοποίησης παιδιών (CSAM);

Ο μη αυτόματος έλεγχος είναι ένα σημαντικό μέρος της συνεχούς προσπάθειάς μας για την εξάλειψη του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Τα μέλη της ομάδας μας συμβάλλουν με τη βαθιά εξειδίκευσή τους σε αυτό το έργο, με υπόβαθρο, μεταξύ άλλων, στους τομείς της νομοθεσίας, της ασφάλειας και προστασίας των παιδιών, της κοινωνικής εργασίας και των ερευνών στον κυβερνοχώρο. Έχουν εκπαιδευτεί ειδικά τόσο σχετικά με το πεδίο εφαρμογής της πολιτικής μας όσο και σχετικά με το τι αποτελεί σύμφωνα με τη νομοθεσία υλικό σεξουαλικής κακοποίησης παιδιών. Οι ομάδες των υπευθύνων ελέγχου μας έχουν λάβει εξειδικευμένη εκπαίδευση και τους παρέχεται ψυχολογική υποστήριξη. Για να μάθετε περισσότερα σχετικά με τον τρόπο με τον οποίο η Google προσεγγίζει την εποπτεία περιεχομένου, καθώς και τον τρόπο με τον οποίο υποστηρίζουμε τη σωματική και ψυχική υγεία των υπευθύνων ελέγχου, ανατρέξτε εδώ.

Τι χρονική περίοδο καλύπτει αυτή η αναφορά;

Οι μετρήσεις που παρουσιάζονται εδώ αντιπροσωπεύουν δεδομένα που συλλέχθηκαν από τις 12:00 π.μ. PST της 1ης Ιανουαρίου έως τις 11:59 μ.μ. PDT της 30ής Ιουνίου και από τις 12:00 π.μ. PDT της 1ης Ιουλίου έως τις 11:59 μ.μ. PST της 31ης Δεκεμβρίου, εκτός εάν ορίζεται διαφορετικά.
Κύριο μενού
6951830630539978818
true
Αναζήτηση στο Κέντρο Βοήθειας
true
true
true
false
false