Google Play 的《AI 生成內容政策》旨在確保 AI 生成的內容對所有使用者安全,且開發人員會採納使用者的意見,以推動負責任的創新發展。
概覽
開發人員有責任確保其生成式 AI 應用程式不會產生令人反感的內容,包括 Google Play《不當內容政策》所列的違禁內容、可能剝削或虐待兒童的內容,以及可欺騙使用者或促使不誠實行為的內容。生成式 AI 應用程式亦應符合「開發人員政策中心」內的所有其他政策。
《AI 生成內容政策》涵蓋由任何文字、語音和圖像提示輸入組合而成的 AI 生成內容,包括但不限於下列類型的生成式 AI 應用程式:
- 文字轉文字 AI 聊天機械人應用程式,核心功能是與 AI 聊天機器人互動。
- 使用 AI 生成圖像的文字轉圖像、語音轉圖像和圖像轉圖像應用程式。
- 使用 AI 製作真人語音和/或錄影的應用程式。
目前的政策並不涵蓋下列類型的限定範圍 AI 應用程式:
- 應用程式只寄存 AI 生成的內容,但無法使用 AI 製作內容,例如不含 AI 內容生成功能的社交媒體應用程式。
- 寄存 AI 生成內容的使用者原創內容應用程式,須符合《使用者原創內容政策》。
- 應用程式總結搜尋結果和文件 (例如書籍摘要) 等非 AI 生成的內容,而摘要功能是該應用程式唯一的功能。
- 生產力應用程式使用 AI 改善現有功能,例如電郵應用程式提供 AI 建議的電郵草稿。
違規的 AI 生成內容包括但不限於下列例子:
- AI 生成未經同意的 deepfake 色情內容。
- 助長詐騙的真人語音或錄影。
- 生成的內容鼓勵有害行為 (例如危險活動、自殘)。
- 明顯欺詐性或虛假的選舉相關內容。
- 生成的內容助長騷擾和欺凌行為。
- 生成式 AI 應用程式的主要目的是滿足性慾。
- AI 生成的正式說明文件促使不誠實行為。
- 建立惡意程式碼。