Google Play 的“AI 生成的内容”政策,有助于确保 AI 生成的内容对所有用户而言都安全无害。开发者应当在应用内加入特定保护措施,保障用户的安全。本文分享了开发者可采用的最佳实践,以帮助确保其应用符合相关要求。
概览
开发者有责任确保其生成式 AI 应用不会生成冒犯性内容,包括 Google Play 不当内容政策中所列的禁止内容、可能剥削或虐待儿童的内容,以及可能欺骗用户或促成不诚实行为的内容。生成式 AI 应用还应遵循 Google 开发者政策中心内的所有其他政策。
最佳实践
开发者应在构建生成式 AI 应用时采用内容保护措施,保障用户安全。这包括采用符合业界标准的测试和安全实践。
如需了解安全性测试的最佳运行方式,我们建议开发者参阅 Google 的安全 AI 框架 (SAIF),以及 OWASP Top 10 for LLM Applications & Generative AI 项目(又称为 OWASP Top 10 for LLM & Gen AI 项目”)中的《GenAI Red Teaming Guide》(生成式 AI 红队测试指南)。
您可通过多种不同方式,确保生成式 AI 应用中的内容安全无害,例如采用过滤器和分类器来屏蔽有害输入和输出。许多 AI 模型提供商都面向开发者发布了介绍如何采用这些保护措施的资源。请参考下方链接,了解来自不同提供商提供的部分内容安全保障产品/服务和指南: