Τι είναι το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM);
Ποια είναι η προσέγγιση της Google για την καταπολέμηση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM);
Πώς προσδιορίζει η Google το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) στην πλατφόρμα της;
Επενδύουμε σημαντικά στην καταπολέμηση της σεξουαλικής εκμετάλλευσης παιδιών στο διαδίκτυο και χρησιμοποιούμε την τεχνολογία για την αποτροπή, τον εντοπισμό και την κατάργηση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) από τις πλατφόρμες μας. Αυτό περιλαμβάνει τον αυτοματοποιημένο εντοπισμό και τον μη αυτόματο έλεγχο, καθώς και την αξιοποίηση των αναφορών που υποβάλλονται από τους χρήστες μας και τρίτα μέρη, όπως οι ΜΚΟ. Αναπτύσσουμε την αντιστοίχιση κατακερματισμού, συμπεριλαμβανομένης της τεχνολογίας CSAI Match του YouTube, για τον εντοπισμό γνωστού υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Επίσης, αναπτύσσουμε κατηγοριοποιητές μηχανικής μάθησης για την ανακάλυψη υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που δεν έχει εμφανιστεί ξανά, το οποίο επιβεβαιώνεται στη συνέχεια από τις ομάδες των ειδικών ελέγχου. Ο εντοπισμός υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που δεν έχει εμφανιστεί ξανά ενισχύει το οικοσύστημα ασφάλειας των παιδιών με πολλούς τρόπους, όπως με τον προσδιορισμό παιδιών-θυμάτων που χρειάζονται προστασία και τη συνεισφορά στο σύνολο κατακερματισμών μας, προκειμένου να βελτιώνονται οι δυνατότητές μας για ανίχνευση γνωστού υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Χρησιμοποιώντας τους κατηγοριοποιητές της, η Google δημιούργησε το Content Safety API, το οποίο παρέχει σε άλλα μέρη προκειμένου να δοθεί προτεραιότητα στο περιεχόμενο κακοποίησης για μη αυτόματο έλεγχο.
Τόσο η Αντιστοίχιση εικόνων σεξουαλικής κακοποίησης παιδιών (CSAI) όσο και το API ασφάλειας περιεχομένου είναι διαθέσιμα σε εγκεκριμένα νομικά πρόσωπα που επιθυμούν να καταπολεμήσουν την κακοποίηση στις πλατφόρμες τους. Ανατρέξτε εδώ για περισσότερες λεπτομέρειες.
Τι κάνει η Google όταν ανιχνεύει υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) στην πλατφόρμα της;
Το NCMEC λειτουργεί ως γραφείο πληροφοριών και αποκλειστικό κέντρο αναφοράς στις Ηνωμένες Πολιτείες, για ζητήματα που σχετίζονται με την εκμετάλλευση παιδιών. Όταν μια αναφορά ληφθεί από το NCMEC, μπορεί να προωθηθεί στις υπηρεσίες επιβολής του νόμου σε ολόκληρο τον κόσμο.
Τι είναι η αναφορά CyberTipline και τι είδους πληροφορίες περιλαμβάνει;
Μόλις η Google ενημερωθεί σχετικά με εμφανές υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), υποβάλλει μια αναφορά στο NCMEC. Αυτές οι αναφορές ονομάζονται συνήθως αναφορές CyberTipLine ή CyberTip. Επιπλέον, προσπαθούμε να εντοπίσουμε υποθέσεις που αφορούν την ενεργή κακοποίηση ανηλίκου, την παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) ή την εμπορία παιδιών. Σε αυτές τις περιπτώσεις, στέλνουμε μια συμπληρωματική αναφορά CyberTip στο NCMEC, προκειμένου να δοθεί προτεραιότητα στο ζήτημα. Μια αναφορά που αποστέλλεται στο NCMEC μπορεί να περιλαμβάνει πληροφορίες που ταυτοποιούν τον χρήστη, το ανήλικο θύμα και μπορεί να περιλαμβάνει το παραβατικό περιεχόμενο ή/και άλλα χρήσιμα συμπληρωματικά δεδομένα.
Ακολουθούν ορισμένα παραδείγματα του αντίκτυπου στον πραγματικό κόσμο των αναφορών CyberTip που έχει υποβάλει η Google. Τα παραδείγματα παρέχουν μια ματιά στην ευρεία γκάμα αναφορών που υποβάλλουμε, αλλά δεν καλύπτουν το σύνολό τους.
- Ένα Google Cybertip ανέφερε πολλά τμήματα υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που περιλάμβαναν παιδιά δημοτικού σχολείου και είχαν ληφθεί σε περιβάλλον σχολικής τάξης. Μέρος του αναφερόμενου υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) δεν είχε στο παρελθόν αναγνωριστεί από την Google και φαινόταν να έχει παραχθεί από τον κάτοχο του Λογαριασμού Google. Το NCMEC προώθησε την αναφορά στις αρχές επιβολής του νόμου, γεγονός που οδήγησε στην ταυτοποίηση και την προστασία των δύο ανήλικων παιδιών που εμφανίζονταν στις αναφερόμενες εικόνες υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).
- Ένα Google Cybertip ανέφερε την επιδίωξη και παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) από έναν κάτοχο λογαριασμού, ο οποίος ζήτησε τη δημιουργία πολλών βίντεο όπου εμφανιζόταν η σωματική κακοποίηση δεκάδων ανήλικων αγοριών έναντι χρημάτων. Το NCMEC προώθησε την αναφορά στις αρχές επιβολής του νόμου. Ο κάτοχος του λογαριασμού καταδικάστηκε για παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) και δεκάδες παιδιά ταυτοποιήθηκαν και προστατεύτηκαν από συνεχιζόμενη κακοποίηση.
- Ένα Google CyberTip ανέφερε ένα μεμονωμένο τμήμα γνωστού περιεχομένου υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που οδήγησε στη σύλληψη του κατόχου του λογαριασμού, ο οποίος, σύμφωνα με τις αρχές επιβολής του νόμου, διαπιστώθηκε ότι είχε στην κατοχή του πολύ ακόμα υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) και εμπλεκόταν άμεσα στη σωματική κακοποίηση ανηλίκων υπό την φροντίδα του, καθώς και στην παροχή αυτών των ανηλίκων για κακοποίηση από άλλους. Χάρη στις προσπάθειες της Google, του NCMEC και των αρχών επιβολής του νόμου, τρία παιδιά διασώθηκαν από σεξουαλική κακοποίηση.
- Ένα Google Cybertip ανέφερε υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) που είχε παραχθεί από τον κάτοχο Λογαριασμού Google και είχε ζητηθεί από ανηλίκους στους οποίους ο κάτοχος του λογαριασμού είχε πρόσβαση στο διαδίκτυο. Ο κάτοχος του λογαριασμού αργότερα συνελήφθη και διαπιστώθηκε από τις αρχές επιβολής του νόμου ότι κατείχε θέση εμπιστοσύνης ως επαγγελματίας υγείας. Χρησιμοποιούσε τη θέση αυτή για να κακοποιεί ασθενείς υπό τη φροντίδα του και είχε άμεση πρόσβαση σε ανηλίκους στο διαδίκτυο από τους οποίους ζητούσε την παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).
Πώς καταπολεμά η Google τους κινδύνους του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στον χώρο του generative AI (GenAI);
Το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) που δημιουργήθηκε από AI ή οι εικόνες που έχουν δημιουργηθεί από υπολογιστή και απεικονίζουν τη σεξουαλική κακοποίηση παιδιών είναι μια απειλή που λαμβάνει η Google πολύ σοβαρά υπόψη. Το έργο μας για τον εντοπισμό, την κατάργηση και την αναφορά υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) περιλάμβανε πάντα παραβατικό περιεχόμενο που αφορά πραγματικούς ανηλίκους, τροποποιημένες εικόνες ενός αναγνωρίσιμου ανηλίκου που επιδίδεται σε σεξουαλικά άσεμνη συμπεριφορά και εικόνες που δημιουργούνται από υπολογιστή και οι οποίες είναι πανομοιότυπες με έναν πραγματικό ανήλικο ο οποίος επιδίδεται σε τέτοιου είδους συμπεριφορά.
Η Google δίνει ιδιαίτερη έμφαση στην ασφάλεια των παιδιών κατά τη δημιουργία των δικών της μοντέλων και προϊόντων GenAI. Ακολουθούμε τις αρχές υπευθυνότητας για το generative AI της Google για την προστασία όλων των δημόσια διαθέσιμων μοντέλων της Google και των υπηρεσιών που βασίζονται σε αυτά τα μοντέλα.
Αναπτύσσουμε διάφορα μέτρα προστασίας για την ασφάλεια των παιδιών για τα μοντέλα και τα προϊόντα GenAI. Σε αυτά ενδέχεται να περιλαμβάνονται μέτρα προστασίας κατά της παρουσίας υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στα δεδομένα εκπαίδευσης στα οποία βασίζονται τα μοντέλα μας, κατά των οδηγιών που σχετίζονται με την αναζήτηση και την παραγωγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) και κατά τυχόν παραβατικών δεδομένων εξόδου. Επίσης, πραγματοποιούμε αυστηρές δοκιμές για την ασφάλεια των παιδιών στα μοντέλα μας πριν από τη δημόσια κυκλοφορία τους, για να κατανοήσουμε και να περιορίσουμε την πιθανότητα δημιουργίας υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).
Συνεργαζόμαστε επίσης με άλλους φορείς που σχετίζονται με το οικοσύστημα ασφάλειας των παιδιών, συμπεριλαμβανομένου του Technology Coalition, καθώς και ΜΚΟ που δραστηριοποιούνται στον τομέα της ασφάλειας των παιδιών, για την κοινοποίηση και την κατανόηση των βέλτιστων πρακτικών, καθώς αυτή η τεχνολογία συνεχίζει να εξελίσσεται.
Τι κάνει η Google για να αποτρέπει τους χρήστες από την αναζήτηση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στην Αναζήτηση;
Πώς συνεισφέρει η Google στο οικοσύστημα ασφάλειας των παιδιών για την καταπολέμηση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM);
Η ομάδα της Google για την ασφάλεια των παιδιών αναπτύσσει τεχνολογία που εντοπίζει με ακρίβεια, αναφέρει CSAM και καταργεί υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), για να προστατεύει τους χρήστες και να αποτρέπει την κακοποίηση παιδιών στα προϊόντα Google. Αναπτύξαμε την Εργαλειοθήκη ασφαλείας παιδιών, για να διασφαλίσουμε ότι το ευρύτερο οικοσύστημα έχει επίσης πρόσβαση σε αυτή την ισχυρή τεχνολογία και για να συμβάλουμε στην αποτροπή της διάδοσης υλικού σεξουαλικής κακοποίησης παιδιών στο διαδίκτυο. Επιπλέον, παρέχουμε το Hash Matching API της Google στο NCMEC, ώστε να ιεραρχεί και να ελέγχει πιο αποδοτικά τις αναφορές CyberTipline και να μπορεί να εστιάζει στις αναφορές που αφορούν παιδιά τα οποία χρειάζονται άμεση βοήθεια.
Επίσης, κοινοποιούμε ενδείξεις σεξουαλικής κακοποίησης και εκμετάλλευσης παιδιών, προκειμένου να είναι δυνατή η κατάργηση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) από το ευρύτερο οικοσύστημα. Κοινοποιούμε εκατομμύρια κατακερματισμούς υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στη βάση δεδομένων κατακερματισμού του κλάδου του NCMEC, προκειμένου άλλοι πάροχοι να μπορούν να αποκτήσουν πρόσβαση και να χρησιμοποιήσουν αυτούς τους κατακερματισμούς. Επίσης, συμμετέχουμε στο Project Lantern, ένα πρόγραμμα που επιτρέπει στις εταιρείες τεχνολογίας να κοινοποιούν σχετικές ενδείξεις για την καταπολέμηση της σεξουαλικής κακοποίησης και εκμετάλλευσης στο διαδίκτυο με ασφαλή και υπεύθυνο τρόπο, κατανοώντας ότι αυτή η κατάχρηση μπορεί να επεκταθεί σε διάφορες πλατφόρμες και υπηρεσίες.
Είμαστε επίσης ενεργό μέλος πολλών συνασπισμών, όπως η Technology Coalition, η WeProtect Global Alliance και η INHOPE, οι οποίες συνδέουν εταιρείες και ΜΚΟ για την ανάπτυξη λύσεων που διακόπτουν την ανταλλαγή υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στο διαδίκτυο και αποτρέπουν τη σεξουαλική εκμετάλλευση παιδιών. Η Google δίνει προτεραιότητα στη συμμετοχή της σε αυτούς τους συνασπισμούς και τη συνεργασία της με ΜΚΟ, όπως οι NCMEC και Thorn, μοιράζεται την εξειδίκευσή της, εξερευνεί βέλτιστες πρακτικές και μαθαίνει περισσότερα σχετικά με τις πιο πρόσφατες απειλές σε βασικά ζητήματα ασφάλειας των παιδιών.