关于 Google 为打击线上儿童性虐待内容所做的努力:常见问题解答

什么是儿童性虐待内容 (CSAM)?

CSAM 的全称是 Child Sexual Abuse Material(儿童性虐待内容)。任何可视内容(包括但不限于照片、视频和计算机生成的图像),只要其中涉及未成年人进行露骨色情行为的画面,都属于儿童性虐待内容。我们认识到,儿童性虐待内容与儿童裸体不同,我们的政策和系统经过精心设计,可以识别本质上不是性行为,也不属于儿童性虐待内容的正常图像(例如孩子在浴缸或庭院玩耍的图像),并将其与性虐待儿童或从情色角度呈现外生殖器或私密部位并违反全球法律的图像加以区分。此外,还有包含或呈现儿童对象的其他类型的淫秽或剥削图像,例如描绘儿童性虐待行为的卡通图像,或试图以幽默方式呈现儿童性剥削的图像。此类图像也可能违反了全球法律。

Google 采取哪些方式来打击儿童性虐待内容?

Google 致力于打击线上儿童性虐待内容,并防止有人利用我们的平台制作、存储或传播此类内容。为了检测、阻止、移除和举报儿童性剥削内容和行为,我们投入了大量技术、人力和时间等资源。如需详细了解我们为保护儿童和家庭所做的努力,请参阅 Google 安全中心、YouTube 的社区准则、Google 的 Protecting Children 网站,以及我们关于如何检测、移除和举报儿童性虐待内容的博文

Google 如何识别其平台上的儿童性虐待内容?

我们投入大量资源打击线上儿童性剥削内容,并利用技术阻止、检测和移除我们平台上的儿童性虐待内容。其中,除了依靠我们的用户和第三方(例如非政府组织)进行举报外,我们还采用自动检测技术和人工审核机制。我们运用哈希匹配技术(包括 YouTube 的 CSAI Match)来检测已知的儿童性虐待内容;还部署了机器学习分类器,用于找出未曾见过的儿童性虐待内容,再交由专家审核团队进行确认。检测未曾见过的儿童性虐待内容有助于多方面改进儿童安全生态(包括识别需要保护的儿童受害者、为哈希集贡献内容等),进而提高我们检测已知儿童性虐待内容的能力。Google 利用自己的分类器打造了 Content Safety API,并提供给其他方,协助他们优先对滥用内容进行人工审核。


CSAI Match 和 Content Safety API 均可供符合条件且希望打击其平台上的滥用内容的实体使用。如需了解更多详情,请参阅此处

Google 在自己的平台上检测到儿童性虐待内容后会怎么做?

我们在自己的平台上检测到儿童性虐待内容后,会将其移除、向美国国家失踪与受虐儿童中心 (NCMEC) 提交“CyberTipline”报告;根据违规行为的性质和严重程度,我们可能还会提出警告、限制账号对某些 Google 产品或服务的访问权限或停用相应 Google 账号。我们也可能会进一步审核相应 Google 账号,找出其他儿童性虐待内容,并/或确认我们已考虑相关背景信息,确保对在该 Google 账号中发现的内容采取合理适当的违规处置措施。

 

NCMEC 是美国的儿童剥削相关问题信息交换和综合举报中心。该中心收到举报后,可能会将举报的内容转发给世界各地的执法机构。

什么是 CyberTipline 报告?其中包含哪类信息?

Google 一旦发现明确的儿童性虐待内容,便会向 NCMEC 举报。这些举报内容通常称为 CyberTipLine 报告或 CyberTip。此外,我们还会尝试找出涉及实际虐待未成年人、制作儿童性虐待内容或贩卖儿童的情况。如果发现这些情况,我们会向 NCMEC 发送 CyberTip 补充报告,以便相应事件得到优先处理。发送给 NCMEC 的报告可能包含用于识别相应用户和未成年受害者身份的信息,还可能包含违规内容和/或其他有用的背景信息数据。

下面列举了一些示例,展示了 Google 提交的 CyberTip 报告对现实世界产生的影响。这些示例虽然没有面面俱到,但可让您大致了解我们提交的报告的广泛性。  

  • 某份 Google CyberTip 报告了许多儿童性虐待内容片段,涉及在课堂环境中拍摄的小学生。在这些儿童性虐待内容中,部分是 Google 之前没有识别到的,而且似乎由相关 Google 账号持有人制作。这份报告经 NCMEC 转发给执法部门,让所报告的儿童性虐待内容图像中包含的两名未成年儿童得以确认身份并受到保护。  
  • 某份 Google CyberTip 报告了一位账号持有人招揽和制作儿童性虐待内容的行为。该账号持有人花钱找人制作了大量视频,内容涉及对数十名未成年男孩的实际虐待活动。NCMEC 将这份报告转发给执法部门。账号持有人因制作儿童性虐待内容而被定罪,数十名儿童得以确认身份,同时受到保护以免受持续虐待。
  • 某份 Google CyberTip 报告了一条已知的儿童性虐待内容,账号持有人最终遭到逮捕。而执法部门发现,该账号持有人拥有更多儿童性虐待内容,不仅直接参与了对其监护的未成年人的实际虐待,还将这些未成年人提供给其他人进行虐待。在 Google、NCMEC 和执法部门的共同努力下,三名儿童从性虐待中得到解救。
  • 某份 Google CyberTip 报告了由 Google 账号持有人制作的儿童性虐待内容,这些内容是此人从与其在线上有联系的未成年人那里索取的。该账号持有人后来被执法部门逮捕。经确认,此人是一名受人信赖的医务人员,不仅利用职位之便虐待由其照管的患者,还通过在网上直接联系未成年人,教唆受害者制作儿童性虐待内容。

Google 如何对抗生成式 AI (GenAI) 领域的儿童性虐待内容风险?

AI 生成的儿童性虐待内容或计算机生成的儿童性虐待内容图像是 Google 非常重视的一大威胁。我们在检测、移除和举报儿童性虐待内容时,一直将下列违规内容列为目标:涉及真实未成年人的内容、呈现可识别身份的未成年人做出露骨色情行为的经修改图像,以及由计算机生成的、无法辨别是否是真实未成年人在进行露骨色情行为的图像。

在自行开发生成式 AI 模型和产品时,Google 非常重视儿童安全。我们遵循 Google 的负责任生成式 AI 原则,保护 Google 的所有公开模型以及使用这些模型打造的服务。

我们为生成式 AI 模型和产品部署了各种儿童安全保护措施。其中包括:防止模型底层训练数据中存在儿童性虐待内容、防范出现寻找和生成儿童性虐待内容的提示,以及避免输出违规内容。在公开发布模型之前,我们还会对模型进行可靠的儿童安全测试,从而了解并降低生成儿童性虐待内容的可能性。

随着这项技术不断发展,我们还与儿童安全生态中的其他方(包括技术联盟和儿童安全非政府组织)展开合作,以便分享和了解最佳做法。

Google 如何阻止用户在搜索中寻找儿童性虐待内容?

Google 部署了安全至上原则,以阻止用户在 Google 搜索上寻找儿童性虐待内容。如果搜索结果导向到看似在性方面伤害、危害或以其他方式剥削儿童的儿童性虐待内容,我们会根据政策予以屏蔽。算法也会持续更新,应对这些不断演变的威胁。当识别出有人在搜索寻找儿童性虐待内容时,我们会执行额外的防范措施。如果有人似乎在搜索儿童性虐待内容,我们会滤除显示露骨色情内容的结果;如果查询的是成人露骨内容,Google 搜索不会返回有儿童的相关图片,从而消除儿童与色情内容之间的关联。除了从 Google 搜索索引中移除我们发现的儿童性虐待内容之外,如果某个网站包含大量儿童性虐待内容,我们还会对该网站的所有内容执行降位操作。在许多国家/地区,如果用户输入与儿童性虐待内容明显相关的查询,他们会看到一条醒目的警告,指出儿童性虐待图像是非法的,并提供有关如何向受信任的组织举报此类内容的信息。我们发现,不少用户在看到这些警告后会打消继续寻找此类内容的念头。

Google 如何为儿童安全生态做贡献,以打击儿童性虐待内容?

Google 的儿童安全团队开发的技术可以准确检测、报告和移除儿童性虐待内容,以保护用户并防止儿童在 Google 产品上受到伤害。为确保更广泛的生态也能使用这项强大的技术,并帮助防止儿童性虐待内容在网上扩散,我们开发了儿童安全工具包。此外,我们向 NCMEC 提供了 Google 的 Hash Matching API,帮助他们更有效地确定 CyberTipline 报告的优先级并审核这些报告,并聚焦于那些涉及急需帮助的儿童的报告。

此外,我们还会分享儿童性虐待和性剥削信号,以便从更广泛的生态中移除儿童性虐待内容。我们与 NCMEC 的行业哈希数据库分享数百万个儿童性虐待内容哈希,以便其他提供商也能访问和使用这些哈希。由于线上性虐待和性剥削可能会出现在各种平台和服务中,因此我们还参与了 Project Lantern 计划,与其他科技公司分享相关信号,共同以安全且负责任的方式打击这类滥用行为。

我们还是多个联盟(例如技术联盟、WeProtect 全球联盟以及 INHOPE)的活跃成员。通过这些联盟,企业和非政府组织能够联合开发解决方案,切断儿童性虐待内容在网上的交换渠道并防止对儿童进行性剥削。参与这些联盟是 Google 的首要之务,在与 NCMEC 和 Thorn 等非政府组织合作的过程中,我们会分享自己的专业知识、探讨各种最佳做法,并详细了解与主要儿童安全问题有关的最新威胁。

政府机构如何向 Google 发送与 CyberTip 相关的法律要求?

NCMEC 收到举报后,可能会将其转发给世界各地的执法机构。然后,执法机构可能会向 Google 发送司法函令,要求获取更多信息(执法机构请求系统 - LERS)。为了方便处理此类要求,经过验证的政府机构可以通过 Google 提供的在线系统,安全地提交用户信息披露要求、查看已提交要求的状态,以及最终下载 Google 对其要求的回应。如需详细了解 LERS 或如何设置 LERS 账号,请访问 lers.google.com。有关详细信息,请参阅 Google 如何处理政府机构提出的用户信息披露要求,其中介绍了我们的具体政策。

如何举报疑似儿童性虐待内容?

如果您发现提供儿童性虐待内容的链接或网站,或发现任何儿童性虐待内容,可以向警方、NCMEC 或您所在地区的适当机构举报。如果您在 Google 的产品上看到或遇到针对儿童的不当内容或行为,可以通过多种方式向我们举报,包括举报 Google 产品上发生的危害儿童的犯罪行为,例如诱骗儿童、性勒索、对儿童进行其他形式的性剥削。您可以通过管理孩子的 Google 账号设置,防止有人通过 Google 产品与您的孩子联系,并过滤孩子看到的内容。

哪些团队负责审核儿童性虐待内容举报?

在我们为打击儿童性虐待内容而持续开展的工作中,人工审核是关键的一环。我们的团队成员拥有法律、儿童安全和宣传、社会工作、网络调查等领域的背景,具备深厚的专业知识,而且在我们的政策范围和儿童性虐待内容的合法构成方面接受过专门培训。审核团队会接受专业的培训,并获得身心健康方面的支持。如需详细了解 Google 如何进行内容审核,包括如何为审核人员提供身心健康方面的支持,请参阅此处的内容。

此报告涵盖哪些时间段?

除非另有说明,否则此报告中显示的指标代表了在以下两个时间段收集的数据:太平洋标准时间 1 月 1 日午夜 12:00 到太平洋夏季时间 6 月 30 日晚上 11:59,以及太平洋夏季时间 7 月 1 日午夜 12:00 到太平洋标准时间 12 月 31 日晚上 11:59。
主菜单
7648599492253121861
true
搜索支持中心
true
true
true
false
false