Google Play の AI 生成コンテンツに関するポリシーは、すべてのユーザーにとって安全な AI 生成コンテンツの提供を目的としています。デベロッパーは、ユーザーの安全を守るために、アプリ内に特定の安全保護対策を組み込む必要があります。この記事では、アプリをポリシーに準拠させるためにデベロッパーが実践できるベスト プラクティスを紹介します。
概要
デベロッパーは、生成 AI アプリが不適切なコンテンツを生成しないようにする責任を負っています。たとえば、Google Play の不適切なコンテンツに関するポリシーに記載されている禁止されたコンテンツ、児童を搾取または虐待するおそれのあるコンテンツ、ユーザーを欺いたり、不正行為を助長したりする可能性のあるコンテンツなどです。生成 AI アプリは、デベロッパー ポリシー センターに記載されている、それ以外のポリシーにもすべて準拠する必要があります。
ベスト プラクティス
デベロッパーは、ユーザーの安全を守るために、生成 AI アプリの構築時にコンテンツの安全保護対策を講じる必要があります。これには、業界標準に準拠したテストおよびセキュリティ対策の採用が含まれます。
安全性テストの実施方法については、Google のセキュア AI フレームワーク(SAIF)および OWASP Top 10 for LLM Applications & Generative AI Project(OWASP Top 10 for LLM & Gen AI Project)の GenAI Red Teaming Guideを参照することをおすすめします。
生成 AI アプリのコンテンツの安全性を確保する方法はいくつかあります。たとえば、有害な入力や出力をブロックするためのフィルタや分類器を採用することなどです。多くの AI モデル プロバイダは、これらの安全保護対策を導入する方法についてのリソースをデベロッパー向けに公開しています。各プロバイダが提供するコンテンツの安全性に関するリソースやガイドへのリンクを、参考としてご紹介します。