什么是儿童性虐待内容 (CSAM)?
Google 采取哪些方式来打击儿童性虐待内容?
Google 如何识别其平台上的儿童性虐待内容?
我们投入大量资源打击线上儿童性剥削内容,并利用技术阻止、检测和移除我们平台上的儿童性虐待内容。其中,除了依靠我们的用户和第三方(例如非政府组织)进行举报外,我们还采用自动检测技术和人工审核机制。我们运用哈希匹配技术(包括 YouTube 的 CSAI Match)来检测已知的儿童性虐待内容;还部署了机器学习分类器,用于找出未曾见过的儿童性虐待内容,再交由专家审核团队进行确认。检测未曾见过的儿童性虐待内容有助于多方面改进儿童安全生态(包括识别需要保护的儿童受害者、为哈希集贡献内容等),进而提高我们检测已知儿童性虐待内容的能力。Google 利用自己的分类器打造了 Content Safety API,并提供给其他方,协助他们优先对滥用内容进行人工审核。
CSAI Match 和 Content Safety API 均可供符合条件且希望打击其平台上的滥用内容的实体使用。如需了解更多详情,请参阅此处。
Google 在自己的平台上检测到儿童性虐待内容后会怎么做?
NCMEC 是美国的儿童剥削相关问题信息交换和综合举报中心。该中心收到举报后,可能会将举报的内容转发给世界各地的执法机构。
什么是 CyberTipline 报告?其中包含哪类信息?
Google 一旦发现明确的儿童性虐待内容,便会向 NCMEC 举报。这些举报内容通常称为 CyberTipLine 报告或 CyberTip。此外,我们还会尝试找出涉及实际虐待未成年人、制作儿童性虐待内容或贩卖儿童的情况。如果发现这些情况,我们会向 NCMEC 发送 CyberTip 补充报告,以便相应事件得到优先处理。发送给 NCMEC 的报告可能包含用于识别相应用户和未成年受害者身份的信息,还可能包含违规内容和/或其他有用的背景信息数据。
下面列举了一些示例,展示了 Google 提交的 CyberTip 报告对现实世界产生的影响。这些示例虽然没有面面俱到,但可让您大致了解我们提交的报告的广泛性。
- 某份 Google CyberTip 报告了许多儿童性虐待内容片段,涉及在课堂环境中拍摄的小学生。在这些儿童性虐待内容中,部分是 Google 之前没有识别到的,而且似乎由相关 Google 账号持有人制作。这份报告经 NCMEC 转发给执法部门,让所报告的儿童性虐待内容图像中包含的两名未成年儿童得以确认身份并受到保护。
- 某份 Google CyberTip 报告了一位账号持有人招揽和制作儿童性虐待内容的行为。该账号持有人花钱找人制作了大量视频,内容涉及对数十名未成年男孩的实际虐待活动。NCMEC 将这份报告转发给执法部门。账号持有人因制作儿童性虐待内容而被定罪,数十名儿童得以确认身份,同时受到保护以免受持续虐待。
- 某份 Google CyberTip 报告了一条已知的儿童性虐待内容,账号持有人最终遭到逮捕。而执法部门发现,该账号持有人拥有更多儿童性虐待内容,不仅直接参与了对其监护的未成年人的实际虐待,还将这些未成年人提供给其他人进行虐待。在 Google、NCMEC 和执法部门的共同努力下,三名儿童从性虐待中得到解救。
- 某份 Google CyberTip 报告了由 Google 账号持有人制作的儿童性虐待内容,这些内容是此人从与其在线上有联系的未成年人那里索取的。该账号持有人后来被执法部门逮捕。经确认,此人是一名受人信赖的医务人员,不仅利用职位之便虐待由其照管的患者,还通过在网上直接联系未成年人,教唆受害者制作儿童性虐待内容。
Google 如何对抗生成式 AI (GenAI) 领域的儿童性虐待内容风险?
AI 生成的儿童性虐待内容或计算机生成的儿童性虐待内容图像是 Google 非常重视的一大威胁。我们在检测、移除和举报儿童性虐待内容时,一直将下列违规内容列为目标:涉及真实未成年人的内容、呈现可识别身份的未成年人做出露骨色情行为的经修改图像,以及由计算机生成的、无法辨别是否是真实未成年人在进行露骨色情行为的图像。
在自行开发生成式 AI 模型和产品时,Google 非常重视儿童安全。我们遵循 Google 的负责任生成式 AI 原则,保护 Google 的所有公开模型以及使用这些模型打造的服务。
我们为生成式 AI 模型和产品部署了各种儿童安全保护措施。其中包括:防止模型底层训练数据中存在儿童性虐待内容、防范出现寻找和生成儿童性虐待内容的提示,以及避免输出违规内容。在公开发布模型之前,我们还会对模型进行可靠的儿童安全测试,从而了解并降低生成儿童性虐待内容的可能性。
随着这项技术不断发展,我们还与儿童安全生态中的其他方(包括技术联盟和儿童安全非政府组织)展开合作,以便分享和了解最佳做法。
Google 如何阻止用户在搜索中寻找儿童性虐待内容?
Google 如何为儿童安全生态做贡献,以打击儿童性虐待内容?
Google 的儿童安全团队开发的技术可以准确检测、报告和移除儿童性虐待内容,以保护用户并防止儿童在 Google 产品上受到伤害。为确保更广泛的生态也能使用这项强大的技术,并帮助防止儿童性虐待内容在网上扩散,我们开发了儿童安全工具包。此外,我们向 NCMEC 提供了 Google 的 Hash Matching API,帮助他们更有效地确定 CyberTipline 报告的优先级并审核这些报告,并聚焦于那些涉及急需帮助的儿童的报告。
此外,我们还会分享儿童性虐待和性剥削信号,以便从更广泛的生态中移除儿童性虐待内容。我们与 NCMEC 的行业哈希数据库分享数百万个儿童性虐待内容哈希,以便其他提供商也能访问和使用这些哈希。由于线上性虐待和性剥削可能会出现在各种平台和服务中,因此我们还参与了 Project Lantern 计划,与其他科技公司分享相关信号,共同以安全且负责任的方式打击这类滥用行为。
我们还是多个联盟(例如技术联盟、WeProtect 全球联盟以及 INHOPE)的活跃成员。通过这些联盟,企业和非政府组织能够联合开发解决方案,切断儿童性虐待内容在网上的交换渠道并防止对儿童进行性剥削。参与这些联盟是 Google 的首要之务,在与 NCMEC 和 Thorn 等非政府组织合作的过程中,我们会分享自己的专业知识、探讨各种最佳做法,并详细了解与主要儿童安全问题有关的最新威胁。