FAQ zu den Bemühungen von Google bei der Bekämpfung von Darstellungen des sexuellen Missbrauchs von Kindern im Internet

Was ist CSAM?

Die Abkürzung CSAM (Child Sexual Abuse Material) steht für „Darstellungen des sexuellen Missbrauchs von Kindern“. Dies umfasst alle visuellen Darstellungen, in denen eine minderjährige Person an sexuellen Handlungen beteiligt ist, einschließlich, aber nicht beschränkt auf Fotos, Videos und computergenerierte Bilder. Uns ist bewusst, dass es sich bei der Nacktheit von Kindern nicht zwangsläufig um Darstellungen des sexuellen Missbrauchs von Kindern handelt. Daher sind unsere Richtlinien und Systeme speziell darauf ausgerichtet, harmlose Bilder, die nicht sexueller Natur und keine Darstellungen des sexuellen Missbrauchs von Kindern sind (z. B. Fotos von Kindern, die in der Badewanne oder im Garten spielen), von Darstellungen des sexuellen Missbrauchs von Kindern und anderen sexuell anzüglichen Abbildungen des Genital- und Intimbereichs zu unterscheiden, die gegen globale Gesetze verstoßen. Darüber hinaus gibt es andere Arten obszöner oder ausbeuterischer Bilder, auf denen Kinder zu sehen oder dargestellt sind, wie z. B. gezeichnete Darstellungen (Cartoons) des sexuellen Missbrauchs von Kindern oder Versuche, die sexuelle Ausbeutung von Kindern auf humoristische Weise darzustellen. Diese Bilder verstoßen möglicherweise ebenfalls gegen globale Gesetze.

Welchen Ansatz verfolgt Google bei der Bekämpfung von Darstellungen des sexuellen Missbrauchs von Kindern?

Google hat es sich zum Ziel gesetzt, Darstellungen des sexuellen Missbrauchs von Kindern im Internet zu bekämpfen und zu verhindern, dass solche Inhalte auf unseren Plattformen erstellt, gespeichert oder verbreitet werden. Wir setzen umfangreiche technologische, personelle und zeitliche Ressourcen ein, um Inhalte aus dem Bereich der sexuellen Ausbeutung von Kindern und entsprechende Verhaltensweisen zu erkennen, zu melden, ihre Verbreitung zu verhindern und die Inhalte zu entfernen. Außerdem gehen wir ungewöhnlichem Nutzerverhalten nach, das auf sexuellen Missbrauch von Kindern hindeuten könnte. Weitere Informationen zum Schutz von Kindern und Familien finden Sie im Google Sicherheitscenter, in den Community-Richtlinien von YouTube und auf unserer Website zum Schutz von Kindern. Sie können sich auch diesen Blogpost ansehen – dort wird beschrieben, wie wir Darstellungen des sexuellen Missbrauchs von Kindern finden, entfernen und melden.

Wie erkennt Google Darstellungen des sexuellen Missbrauchs von Kindern auf seiner Plattform?

Wir gehen verstärkt gegen die sexuelle Ausbeutung von Kindern im Internet vor und setzen Technologien ein, um Darstellungen des sexuellen Missbrauchs von Kindern auf unseren Plattformen zu erkennen, zu entfernen und deren Verbreitung zu verhindern. Hierbei stützen wir uns neben der automatisierten Erkennung und der manuellen Überprüfung von Inhalten auch auf Meldungen, die wir von Nutzern und Dritten, z. B. NGOs (non-governmental organizations, also Nichtregierungsorganisationen), erhalten. Wir nutzen Hash-Technologie wie CSAI Match, die Abgleichstechnologie von YouTube, um bekannte Darstellungen des sexuellen Missbrauchs von Kindern zu erkennen. Außerdem setzen wir Klassifikatoren für maschinelles Lernen ein, um bisher unbekannte Darstellungen des sexuellen Missbrauchs von Kindern zu finden. Diese werden dann von unseren Experten geprüft. Das Aufspüren bisher unbekannter Darstellungen des sexuellen Missbrauchs von Kindern unterstützt den Schutz von Kindern in mehrfacher Hinsicht. So können z. B. schutzbedürftige Kinder identifiziert werden. Außerdem wird das Hashset aufgestockt, um unsere Möglichkeiten zum Erkennen bekannter Darstellungen des sexuellen Missbrauchs von Kindern weiter auszubauen. Mithilfe unserer Klassifikatoren haben wir die Content Safety API erstellt, die wir Dritten zur Verfügung stellen, damit missbräuchliche Inhalte priorisiert werden können, die dringend einer manuellen Überprüfung unterzogen werden müssen. 


CSAI Match und die Content Safety API sind für Rechtspersönlichkeiten verfügbar, die bestimmte Voraussetzungen erfüllen und missbräuchliche Inhalte auf ihren Plattformen bekämpfen möchten. Weitere Informationen

Was passiert, wenn Google auf seinen Plattformen Darstellungen des sexuellen Missbrauchs von Kindern findet?

Wenn wir Darstellungen des sexuellen Missbrauchs von Kindern auf unseren Plattformen finden, entfernen wir sie und senden eine sogenannte CyberTipline-Meldung an das NCMEC (National Center for Missing and Exploited Children), eine Kinderschutzorganisation in den USA. Möglicherweise stellen wir dann je nach Art und Schwere des Verstoßes eine Verwarnung aus, schränken den Zugriff eines Kontos auf bestimmte Google-Produkte oder ‑Dienste ein oder deaktivieren das Google-Konto. Wir behalten uns außerdem vor, das Google-Konto weiter zu überprüfen, um noch andere Darstellungen des sexuellen Missbrauchs von Kindern zu finden und/oder den relevanten Kontext zu berücksichtigen, damit wir in Bezug auf das im Google-Konto identifizierte Material angemessene und verhältnismäßige Maßnahmen ergreifen.

 

Das NCMEC dient als Informationsclearingstelle und Meldezentrum für Angelegenheiten im Zusammenhang mit der Ausbeutung von Kindern in den USA. Sobald das NCMEC eine Meldung erhält, kann es sie an Strafverfolgungsbehörden auf der ganzen Welt weiterleiten.

Was ist eine CyberTipline-Meldung und welche Informationen enthält sie?

Wenn wir Darstellungen des sexuellen Missbrauchs von Kindern finden, melden wir das dem NCMEC. Diese Meldungen werden allgemein als CyberTipline-Meldungen oder CyberTips bezeichnet. Darüber hinaus versuchen wir, Fälle zu identifizieren, in denen es um den körperlichen Missbrauch von Minderjährigen, die Produktion von Darstellungen des sexuellen Missbrauchs von Kindern sowie Kinderhandel geht. In diesen Fällen senden wir eine zusätzliche CyberTip-Meldung an das NCMEC, sodass die Angelegenheit priorisiert werden kann. Eine an das NCMEC gesendete Meldung kann personenidentifizierbare Informationen des Nutzers und des minderjährigen Opfers, die unzulässigen Inhalte selbst und/oder weitere Informationen zum Kontext der erkannten Inhalte enthalten.

Nachfolgend finden Sie einige Beispiele für die konkreten Auswirkungen der von Google gesendeten CyberTip-Meldungen. Sie geben einen kleinen Einblick in das breite Spektrum unserer Meldungen, decken diese aber nicht umfassend ab.  

  • In einem CyberTip von Google wurden zahlreiche Darstellungen des sexuellen Missbrauchs von Kindern gemeldet, die in einer Grundschulumgebung aufgenommen wurden. Einige der gemeldeten Darstellungen waren Google zuvor nicht bekannt und wurden offenbar vom Inhaber des entsprechenden Google-Kontos erstellt. Das NCMEC leitete die Meldung an die Strafverfolgungsbehörden weiter. Dadurch konnten zwei Minderjährige, die auf entsprechenden Aufnahmen abgebildet waren, identifiziert und vor weiterem Missbrauch geschützt werden.  
  • In einem Google-CyberTip wurde die Anfrage nach und Produktion von Darstellungen des sexuellen Missbrauchs von Kindern durch einen Kontoinhaber gemeldet, der Geld für die Produktion zahlreicher Videos angeboten hatte, in denen der körperliche Missbrauch Dutzender minderjähriger Jungen zu sehen sein sollte. Das NCMEC leitete die Meldung an die Strafverfolgungsbehörden weiter. Der Kontoinhaber wurde wegen der Produktion von Darstellungen des sexuellen Missbrauchs von Kindern verurteilt und Dutzende Kinder konnten identifiziert und vor weiterem Missbrauch geschützt werden.
  • In einem Google-CyberTip wurde eine einzelne bekannte Darstellung des sexuellen Missbrauchs von Kindern gemeldet. Dies führte zur Festnahme des Kontoinhabers, der nach Angaben der Strafverfolgungsbehörden im Besitz von weitaus mehr Darstellungen des sexuellen Missbrauchs von Kindern war. Außerdem war er direkt am Missbrauch von Minderjährigen in seiner Obhut beteiligt und ließ diese Minderjährigen auch von anderen missbrauchen. Dank der Bemühungen von Google, des NCMEC und der Strafverfolgungsbehörden konnten drei Kinder vor weiterem sexuellen Missbrauch geschützt werden.
  • In einem Google-CyberTip wurden Darstellungen des sexuellen Missbrauchs von Kindern gemeldet. Der Inhaber des Google-Kontos hatte diese produziert und sie zuvor bei Minderjährigen angefragt, zu denen er online Zugang hatte. Er wurde später festgenommen. Die Strafverfolgungsbehörden deckten auf, dass er als Mediziner eine Vertrauensstellung innehatte: Er nutzte dies aus, um die ihm anvertrauten Patienten zu missbrauchen, und hatte online direkten Zugang zu Minderjährigen, die er darum bat, Darstellungen des sexuellen Missbrauchs von Kindern für ihn anzufertigen.

Wie bekämpft Google die Risiken, die mit Darstellungen des sexuellen Missbrauchs von Kindern im Bereich generativer KI einhergehen?

KI-generierte Darstellungen des sexuellen Missbrauchs von Kindern oder computergenerierte Bilder, die den sexuellen Missbrauch von Kindern zeigen, sind eine Bedrohung, die Google außerordentlich ernst nimmt. Für unsere Arbeit, Darstellungen des sexuellen Missbrauchs von Kindern zu erkennen, zu entfernen und zu melden, haben wir schon immer entsprechende Inhalte herangezogen. Zu diesen gehören Inhalte mit realen Minderjährigen, modifizierte Bilder mit einer identifizierbaren minderjährigen Person bei sexuell expliziten Handlungen sowie computergenerierte Bilder, die von einem realen Minderjährigen bei solchen Handlungen nicht zu unterscheiden sind.

Bei der Entwicklung unserer eigenen Modelle und Produkte, die auf generativer KI basieren, legen wir größten Wert auf den Schutz von Kindern. Wir folgen beim Schutz aller öffentlich verfügbaren Modelle von Google und der Dienste, die auf Grundlage dieser Modelle erstellt werden, den Grundsätzen von Google für eine verantwortungsbewusste generative KI.

Bei unseren auf generativer KI basierenden Modellen und Produkten setzen wir eine Vielzahl von Schutzmaßnahmen für Kinder ein. Dazu können unter anderem Schutzmaßnahmen gehören, die Darstellungen des sexuellen Missbrauchs von Kindern aus den unseren Modellen zugrunde liegenden Trainingsdaten ausschließen, Prompts unterbinden, mit denen nach Darstellungen des sexuellen Missbrauchs von Kindern gesucht wird oder mit denen solche Darstellungen produziert werden, sowie unzulässige Ausgaben verhindern. Vor der offiziellen Einführung unterziehen wir unsere Modelle im Hinblick auf den Schutz von Kindern zusätzlich einer Reihe strenger Tests, um das Risiko der Erstellung von Darstellungen des sexuellen Missbrauchs von Kindern einschätzen und minimieren zu können.

Wir arbeiten auch mit anderen Kinderschutzorganisationen zusammen, darunter der Technology Coalition und entsprechenden NGOs, um im Zuge der Weiterentwicklung dieser Technologie Best Practices weiterzugeben und zu verstehen.

Was unternimmt Google, um Nutzer davon abzuhalten, Darstellungen des sexuellen Missbrauchs von Kindern mit Google zu suchen?

Google setzt die Grundsätze von Safety-by-Design (Sicherheit über Design) ein, um Nutzer davon abzuhalten, in der Google Suche nach Darstellungen des sexuellen Missbrauchs von Kindern zu suchen. Wir blockieren grundsätzlich Suchergebnisse, die zu Darstellungen des sexuellen Missbrauchs von Kindern führen, in denen Kinder tatsächlich oder anscheinend zu Schaden kommen oder gefährdet bzw. anderweitig ausgebeutet werden. Wir aktualisieren unsere Algorithmen kontinuierlich, um gegen diese sich ständig weiterentwickelnden Bedrohungen vorzugehen. Bei Suchanfragen, von denen wir wissen, dass damit nach Darstellungen des sexuellen Missbrauchs von Kindern gesucht wird, treffen wir besondere Vorkehrungen: Bei solchen Suchanfragen filtern wir Ergebnisse mit expliziten sexuellen Ergebnissen heraus. Falls mit der Google Suche nach anstößigen Inhalten nur für Erwachsene gesucht wird, werden keine Bilder zurückgegeben, auf denen Kinder zu sehen sind, sodass die Verknüpfung von Kindern und sexuellen Inhalten in der Suche aufgehoben wird. Wenn Inhalte mit Darstellungen des sexuellen Missbrauchs von Kindern erkannt werden, entfernen wir sie nicht nur aus dem Index der Google Suche, sondern werten auch alle Inhalte von Websites mit einem hohen Anteil an Darstellungen des sexuellen Missbrauchs von Kindern ab. In vielen Ländern wird Nutzern bei Suchanfragen mit eindeutigem Bezug zu Darstellungen des sexuellen Missbrauchs von Kindern eine gut sichtbare Warnung angezeigt. Dort werden sie darauf hingewiesen, dass Darstellungen des sexuellen Missbrauchs von Kindern illegal sind, und darüber informiert, wie sie entsprechende Inhalte an vertrauenswürdige Organisationen melden. Wir haben festgestellt, dass Nutzer weniger geneigt sind, ihre Suche fortzusetzen, wenn diese Warnungen angezeigt werden.

Was tut Google, um zum Schutz von Kindern beizutragen und gegen Darstellungen des sexuellen Missbrauchs von Kindern vorzugehen?

Das Google-Team für den Schutz von Kindern entwickelt Technologien, die Darstellungen des sexuellen Missbrauchs von Kindern zuverlässig erkennen, melden und entfernen, um unsere Nutzer zu schützen und zu verhindern, dass Google-Produkte eingesetzt werden, um Kindern Schaden zuzufügen. Wir haben das Toolkit zum Schutz von Kindern entwickelt, um unseren Mitstreitern und dem Rest der Branche Zugriff auf diese leistungsstarke Technologie zu geben und zu verhindern, dass Darstellungen des sexuellen Missbrauchs von Kindern online verbreitet werden. Darüber hinaus stellen wir dem NCMEC unsere Hash Matching API zur Verfügung. Damit lassen sich CyberTipline-Meldungen effizienter prüfen und so priorisieren, dass der Fokus zuerst auf Meldungen gelegt werden kann, die Kinder betreffen, die sofortige Hilfe benötigen. 

Außerdem geben wir Signale weiter, die auf den sexuellen Missbrauch und die sexuelle Ausbeutung von Kindern hindeuten, um die Entfernung von Darstellungen des sexuellen Missbrauchs von Kindern aus dem größeren Ökosystem zu ermöglichen. Wir teilen Millionen von Hashes zu Darstellungen des sexuellen Missbrauchs von Kindern mit der Hash-Branchendatenbank des NCMEC, damit auch andere Anbieter auf diese Hashes zugreifen und sie verwenden können. Außerdem beteiligen wir uns am Lantern Project, da wir wissen, dass diese Art von Missbrauch plattform- und dienstübergreifend auftreten kann. Das Programm ermöglicht Technologieunternehmen, relevante Signale zur Bekämpfung von sexuellem Missbrauch und sexueller Ausbeutung im Internet auf sichere und verantwortungsvolle Weise zu teilen.

Wir sind aktives Mitglied mehrerer Vereinigungen, die Unternehmen und NGOs zusammenbringen, um Lösungen zu entwickeln, die den Austausch von Darstellungen des sexuellen Missbrauchs von Kindern im Internet unterbinden und die sexuelle Ausbeutung von Kindern verhindern, darunter die Technology Coalition, die WeProtect Global Alliance und INHOPE. Die Beteiligung an diesen Vereinigungen hat für uns höchste Priorität und bei der Zusammenarbeit mit NGOs wie dem NCMEC und Thorn geben wir außerdem unser Fachwissen weiter, setzen uns intensiv mit Best Practices auseinander und informieren uns über die neuesten Bedrohungen bei den wichtigsten Themen rund um den Schutz von Kindern.

Wie können Behörden rechtliche Ersuchen an Google senden, die in Zusammenhang mit einem CyberTip stehen?

Sobald das NCMEC eine Meldung erhält, kann es sie an Strafverfolgungsbehörden auf der ganzen Welt weiterleiten. Strafverfolgungsbehörden können dann ein gerichtliches Ersuchen an Google senden, um weitere Informationen zu erhalten. Um entsprechende Anfragen zu vereinfachen, stellt Google ein Onlinesystem zur Verfügung, mit dem verifizierte Behörden Ersuchen auf sichere Weise einreichen können – das Law Enforcement Request System (LERS). Die Behörden können den Status ihrer Ersuchen über dieses Onlinesystem einsehen und dann die entsprechende Antwort von Google herunterladen. Falls Sie weitere Informationen zum LERS wünschen oder ein LERS-Konto einrichten möchten, besuchen Sie bitte lers.google.com. Weitere Informationen finden Sie in den Richtlinien unter Wie Google mit behördlichen Ersuchen zu Nutzerdaten umgeht.

 Wie kann ich Darstellungen des sexuellen Missbrauchs von Kindern melden?

Wenn Sie einen Link, eine Website oder Inhalte finden, die Darstellungen des sexuellen Missbrauchs von Kindern enthalten, können Sie sich an die Polizei, das NCMEC oder eine entsprechende Organisation in Ihrem Land wenden. Wenn Sie in Google-Produkten unangemessene Inhalte oder unangemessenes Verhalten gegenüber Kindern entdecken, bitten wir Sie, uns dies melden, indem Sie das entsprechende Meldesystem nutzen. Vergehen im Bereich der Gefährdung von Kindern in Google-Produkten liegen vor, wenn z. B. die Tatbestände Grooming, sexuelle Erpressung oder andere Formen der sexuellen Ausbeutung von Kindern erfüllt sind. Die Google-Kontoeinstellungen Ihres Kindes geben Ihnen sehr weitreichende Möglichkeiten, um zu verhindern, dass andere Personen auf normalem Weg zu Ihrem Kind Kontakt aufnehmen. Außerdem haben Sie dort die Möglichkeit, die Inhalte zu filtern, die Ihr Kind sehen kann.

Welche Teams prüfen die Meldungen zu Darstellungen des sexuellen Missbrauchs von Kindern?

Die manuelle Überprüfung ist ein wesentlicher Bestandteil unserer Bemühungen zur Bekämpfung von Darstellungen des sexuellen Missbrauchs von Kindern. Unsere Teammitglieder verfügen über fundierte Fachkenntnisse, u. a. in den Bereichen Recht, Schutz und Interessenvertretung von Kindern, Sozialarbeit und Ermittlungen im Cyberspace. Sie sind speziell geschult, sowohl im Hinblick auf den Anwendungsbereich unserer Richtlinien als auch darauf, was rechtlich als Darstellung des sexuellen Missbrauchs von Kindern gilt. Die Prüfteams haben spezielle Schulungen absolviert und erhalten psychologische Unterstützung. Weitere Informationen zu unserer Herangehensweise an die Inhaltsmoderation und dazu, wie wir uns um das Wohlbefinden unserer Prüfer kümmern, finden Sie hier.

Welchen Zeitraum deckt dieser Bericht ab?

Die hier angegebenen Messwerte beziehen sich auf Daten, die zwischen dem 1. Januar, 0:00 Uhr PST (UTC -8) und dem 30. Juni, 23:59 Uhr PDT (UTC -7) sowie am 1. Juli, 0:00 Uhr PDT (UTC -7) und dem 31. Dezember um 23:59 Uhr PST (UTC -8) erhoben wurden, sofern nicht anders angegeben.
Google-Apps
Hauptmenü
5240145414569674893
true
Suchen in der Hilfe
true
true
true