Was ist CSAM?
Welchen Ansatz verfolgt Google bei der Bekämpfung von Darstellungen des sexuellen Missbrauchs von Kindern?
Wie erkennt Google Darstellungen des sexuellen Missbrauchs von Kindern auf seiner Plattform?
Wir gehen verstärkt gegen den sexuellen Missbrauch von Kindern im Internet vor und setzen Technologien ein, um Darstellungen des sexuellen Missbrauchs von Kindern auf unseren Plattformen zu erkennen, zu entfernen und deren Verbreitung zu verhindern. Hierbei stützen wir uns neben der automatisierten Erkennung und der manuellen Überprüfung von Inhalten auch auf Meldungen, die wir von Nutzern und Dritten, z. B. NGOs (non-governmental organizations, also Nichtregierungsorganisationen), erhalten. Wir nutzen Hash-Technologie wie CSAI Match, die Abgleichstechnologie von YouTube, um bekannte Darstellungen des sexuellen Missbrauchs von Kindern zu erkennen. Außerdem setzen wir Klassifikatoren für maschinelles Lernen ein, um bisher unbekannte Darstellungen des sexuellen Missbrauchs von Kindern zu finden. Diese werden dann von unseren Experten geprüft. Das Aufspüren bisher unbekannter Darstellungen des sexuellen Missbrauchs von Kindern unterstützt den Schutz von Kindern in mehrfacher Hinsicht. So können z. B. schutzbedürftige Kinder identifiziert werden. Außerdem wird das Hashset aufgestockt, um unsere Möglichkeiten zum Erkennen bekannter Darstellungen des sexuellen Missbrauchs von Kindern weiter auszubauen. Mithilfe unserer Klassifikatoren haben wir die Content Safety API erstellt, die wir Dritten zur Verfügung stellen, damit missbräuchliche Inhalte priorisiert werden können, die dringend einer manuellen Überprüfung unterzogen werden müssen.
CSAI Match und die Content Safety API sind für Rechtspersönlichkeiten verfügbar, die bestimmte Voraussetzungen erfüllen und missbräuchliche Inhalte auf ihren Plattformen bekämpfen möchten. Weitere Informationen
Was passiert, wenn Google auf seinen Plattformen Darstellungen des sexuellen Missbrauchs von Kindern findet?
Das NCMEC dient als Informationsclearingstelle und Meldezentrum für Angelegenheiten im Zusammenhang mit der Ausbeutung von Kindern in den USA. Sobald das NCMEC eine Meldung erhält, kann es sie an Strafverfolgungsbehörden auf der ganzen Welt weiterleiten.
Was ist eine CyberTipline-Meldung und welche Informationen enthält sie?
Wenn wir Darstellungen des sexuellen Missbrauchs von Kindern finden, melden wir das dem NCMEC. Diese Meldungen werden allgemein als CyberTipline-Meldungen oder CyberTips bezeichnet. Darüber hinaus versuchen wir, Fälle zu identifizieren, in denen es um den körperlichen Missbrauch von Minderjährigen, die Produktion von Darstellungen des sexuellen Missbrauchs von Kindern sowie Kinderhandel geht. In diesen Fällen senden wir eine zusätzliche CyberTip-Meldung an das NCMEC, sodass die Angelegenheit priorisiert werden kann. Eine an das NCMEC gesendete Meldung kann personenidentifizierbare Informationen des Nutzers und des minderjährigen Opfers, die unzulässigen Inhalte selbst und/oder weitere Informationen zum Kontext der erkannten Inhalte enthalten.
Nachfolgend finden Sie einige Beispiele für die konkreten Auswirkungen der von Google gesendeten CyberTip-Meldungen. Sie geben einen kleinen Einblick in das breite Spektrum unserer Meldungen, decken diese aber nicht umfassend ab.
- In einem CyberTip von Google wurden zahlreiche Darstellungen des sexuellen Missbrauchs von Kindern gemeldet, die in einer Grundschulumgebung aufgenommen wurden. Einige der gemeldeten Darstellungen waren Google zuvor nicht bekannt und wurden offenbar vom Inhaber des entsprechenden Google-Kontos erstellt. Das NCMEC leitete die Meldung an die Strafverfolgungsbehörden weiter. Dadurch konnten zwei Minderjährige, die auf entsprechenden Aufnahmen abgebildet waren, identifiziert und vor weiterem Missbrauch geschützt werden.
- In einem Google-CyberTip wurde die Anfrage nach und Produktion von Darstellungen des sexuellen Missbrauchs von Kindern durch einen Kontoinhaber gemeldet, der Geld für die Produktion zahlreicher Videos angeboten hatte, in denen der körperliche Missbrauch Dutzender minderjähriger Jungen zu sehen sein sollte. Das NCMEC leitete die Meldung an die Strafverfolgungsbehörden weiter. Der Kontoinhaber wurde wegen der Produktion von Darstellungen des sexuellen Missbrauchs von Kindern verurteilt und Dutzende Kinder konnten identifiziert und vor weiterem Missbrauch geschützt werden.
- In einem Google-CyberTip wurde eine einzelne bekannte Darstellung des sexuellen Missbrauchs von Kindern gemeldet. Dies führte zur Festnahme des Kontoinhabers, der nach Angaben der Strafverfolgungsbehörden im Besitz von weitaus mehr Darstellungen des sexuellen Missbrauchs von Kindern war. Außerdem war er direkt am Missbrauch von Minderjährigen in seiner Obhut beteiligt und ließ diese Minderjährigen auch von anderen missbrauchen. Dank der Bemühungen von Google, des NCMEC und der Strafverfolgungsbehörden konnten drei Kinder vor weiterem sexuellen Missbrauch geschützt werden.
- In einem Google-CyberTip wurden Darstellungen des sexuellen Missbrauchs von Kindern gemeldet. Der Inhaber des Google-Kontos hatte diese produziert und sie zuvor bei Minderjährigen angefragt, zu denen er online Zugang hatte. Er wurde später festgenommen. Die Strafverfolgungsbehörden deckten auf, dass er als Mediziner eine Vertrauensstellung innehatte: Er nutzte dies aus, um die ihm anvertrauten Patienten zu missbrauchen, und hatte online direkten Zugang zu Minderjährigen, die er darum bat, Darstellungen des sexuellen Missbrauchs von Kindern für ihn anzufertigen.
Wie bekämpft Google die Risiken, die mit Darstellungen des sexuellen Missbrauchs von Kindern im Bereich generativer KI einhergehen?
KI-generierte Darstellungen des sexuellen Missbrauchs von Kindern oder computergenerierte Bilder, die den sexuellen Missbrauch von Kindern zeigen, sind eine Bedrohung, die Google außerordentlich ernst nimmt. Für unsere Arbeit, Darstellungen des sexuellen Missbrauchs von Kindern zu erkennen, zu entfernen und zu melden, haben wir schon immer entsprechende Inhalte herangezogen. Zu diesen gehören Inhalte mit realen Minderjährigen, modifizierte Bilder mit einer identifizierbaren minderjährigen Person bei sexuell expliziten Handlungen sowie computergenerierte Bilder, die von einem realen Minderjährigen bei solchen Handlungen nicht zu unterscheiden sind.
Bei der Entwicklung unserer eigenen Modelle und Produkte, die auf generativer KI basieren, legen wir größten Wert auf den Schutz von Kindern. Wir folgen beim Schutz aller öffentlich verfügbaren Modelle von Google und der Dienste, die auf Grundlage dieser Modelle erstellt werden, den Grundsätzen von Google für eine verantwortungsbewusste generative KI.
Bei unseren auf generativer KI basierenden Modellen und Produkten setzen wir eine Vielzahl von Schutzmaßnahmen für Kinder ein. Dazu können unter anderem Schutzmaßnahmen gehören, die Darstellungen des sexuellen Missbrauchs von Kindern aus den unseren Modellen zugrunde liegenden Trainingsdaten ausschließen, Prompts unterbinden, mit denen nach Darstellungen des sexuellen Missbrauchs von Kindern gesucht wird oder mit denen solche Darstellungen produziert werden, sowie unzulässige Ausgaben verhindern. Vor der offiziellen Einführung unterziehen wir unsere Modelle im Hinblick auf den Schutz von Kindern zusätzlich einer Reihe strenger Tests, um das Risiko der Erstellung von Darstellungen des sexuellen Missbrauchs von Kindern einschätzen und minimieren zu können.
Wir arbeiten auch mit anderen Kinderschutzorganisationen zusammen, darunter der Technology Coalition und entsprechenden NGOs, um im Zuge der Weiterentwicklung dieser Technologie den richtigen Umgang mit ihr zu verstehen und dieses Wissen weiterzugeben.
Was unternimmt Google, um Nutzer davon abzuhalten, Darstellungen des sexuellen Missbrauchs von Kindern mit Google zu suchen?
Was tut Google, um zum Schutz von Kindern beizutragen und gegen Darstellungen des sexuellen Missbrauchs von Kindern vorzugehen?
Das Google-Team für den Schutz von Kindern entwickelt Technologien, die Darstellungen des sexuellen Missbrauchs von Kindern zuverlässig erkennen, melden und entfernen, um unsere Nutzer zu schützen und zu verhindern, dass Google-Produkte eingesetzt werden, um Kindern Schaden zuzufügen. Wir haben das Toolkit zum Schutz von Kindern entwickelt, um unseren Mitstreitern und dem Rest der Branche Zugriff auf diese leistungsstarke Technologie zu geben und zu verhindern, dass Darstellungen des sexuellen Missbrauchs von Kindern online verbreitet werden. Darüber hinaus stellen wir dem NCMEC unsere Hash Matching API zur Verfügung. Damit lassen sich CyberTipline-Meldungen effizienter prüfen und so priorisieren, dass der Fokus zuerst auf Meldungen gelegt werden kann, die Kinder betreffen, die sofortige Hilfe benötigen.
Außerdem geben wir Signale weiter, die auf den sexuellen Missbrauch und die sexuelle Ausbeutung von Kindern hindeuten, um die Entfernung von Darstellungen des sexuellen Missbrauchs von Kindern aus dem größeren Ökosystem zu ermöglichen. Wir teilen Millionen von Hashes zu Darstellungen des sexuellen Missbrauchs von Kindern mit der Hash-Branchendatenbank des NCMEC, damit auch andere Anbieter auf diese Hashes zugreifen und sie verwenden können. Außerdem beteiligen wir uns am Lantern Project, da wir wissen, dass diese Art von Missbrauch plattform- und dienstübergreifend auftreten kann. Das Programm ermöglicht Technologieunternehmen, relevante Signale zur Bekämpfung von sexuellem Missbrauch und sexueller Ausbeutung im Internet auf sichere und verantwortungsvolle Weise zu teilen.
Wir sind aktives Mitglied mehrerer Vereinigungen, die Unternehmen und NGOs zusammenbringen, um Lösungen zu entwickeln, die den Austausch von Darstellungen des sexuellen Missbrauchs von Kindern im Internet unterbinden und die sexuelle Ausbeutung von Kindern verhindern, darunter die Technology Coalition, die WeProtect Global Alliance und INHOPE. Die Beteiligung an diesen Vereinigungen hat für uns höchste Priorität und bei der Zusammenarbeit mit NGOs wie dem NCMEC und Thorn geben wir außerdem unser Fachwissen weiter, setzen uns intensiv mit Best Practices auseinander und informieren uns über die neuesten Bedrohungen bei den wichtigsten Themen rund um den Schutz von Kindern.