Google Play 的“AI 生成的内容”政策旨在确保 AI 生成的内容对所有用户来说都是安全的,并确保开发者能够考量用户反馈,实现负责任的创新。
概览
开发者有责任确保其生成式 AI 应用不会生成冒犯性内容,包括 Google Play 不当内容政策中所列禁止的内容、可能剥削或虐待儿童的内容,以及可能欺骗用户或促成不诚实行为的内容。生成式 AI 应用还应遵循开发者政策中心内的所有其他政策。
“AI 生成的内容”政策涵盖 AI 根据以文本、语音和图片的任意结合形式输入的问题而生成的内容,包括但不限于以下类型的生成式 AI 应用所生成的内容:
- 以 AI 生成的聊天机器人互动为核心功能的文字到文字 AI 聊天机器人应用。
- 利用 AI 技术生成图像的文字到图像应用、语音到图像应用和图像到图像应用。
- 利用 AI 技术生成真人语音和/或视频录像的应用。
目前,该政策不涵盖以下类型的范围有限的 AI 应用:
- 仅托管 AI 生成的内容且无法利用 AI 技术创建内容的应用,例如不包含 AI 内容生成功能的社交媒体应用。
- 托管 AI 生成内容的用户生成内容 (UGC) 应用必须遵守用户生成的内容政策。
- 对非 AI 生成内容进行总结的应用,例如搜索结果摘要和文档摘要(例如对一本书进行总结),前提是总结功能是应用的唯一功能。
- 利用 AI 改进现有功能的效率应用,例如可通过 AI 建议电子邮件草稿的电子邮件应用。
AI 生成违规内容的示例包括但不限于:
- 在未征得当事人同意的情况下利用 AI 技术生成的深度伪造色情内容。
- 促成欺诈行为的真人录音或录像。
- 为鼓动有害行为(例如危险活动、自残)而生成的内容。
- 明显具有欺骗性或虚假的选举相关内容。
- 为助长欺凌和骚扰行为而生成的内容。
- 主要以性取悦为目的的生成式 AI 应用。
- 促成不诚实行为的 AI 生成官方文件。
- 创建恶意代码。