Google Play「AI 產生的內容」政策的用意是確保 AI 產生的內容對所有使用者安全無虞,並確認開發人員將使用者意見納入考量,能以負責任的態度推動創新。
總覽
開發人員必須負責確保自家的生成式 AI 應用程式不會產生令人反感的內容,包括 Google Play「不當內容」政策所列的禁止內容、可能涉及剝削或虐待兒童的內容,以及可能欺瞞使用者或助長欺騙行為的內容。此外,生成式 AI 應用程式也必須遵循開發人員政策中心的所有其他政策。
「AI 產生的內容」政策涵蓋 AI 根據文字、語音和圖片提示輸入內容的任意組合而產生的內容,適用範圍包括但不限於下列類型的生成式 AI 應用程式:
- 文字轉文字 AI 聊天機器人應用程式,主要功能是與 AI 聊天機器人互動。
- 運用 AI 技術產生圖片的文字轉圖片、語音轉圖片及圖片轉圖片應用程式。
- 以 AI 技術製作真人錄音和/或錄影內容的應用程式。
以下幾類應用程式只在限定範圍內使用 AI 技術,目前不適用這項政策:
- 只存放 AI 產生的內容,且無法運用 AI 技術製作內容的應用程式,例如不含 AI 內容生成功能的社群媒體應用程式。
- 根據「使用者原創內容」政策存放 AI 生成內容的 UGC 應用程式。
- 節錄非 AI 生成內容的應用程式,比如提供搜尋結果和書籍等文件的摘要,前提是摘要功能為應用程式唯一的功能。
- 以 AI 技術改進現有功能的效率提升應用程式,例如電子郵件應用程式提供 AI 建議的郵件草稿。
違規的 AI 生成內容包括但不限於:
- 由 AI 產生且未經當事人同意的深偽色情內容。
- 助長詐騙行為的真人錄音或錄影內容。
- 為了鼓吹有害行為 (比如自傷、危險活動) 而產生的內容。
- 明顯不實或涉及欺騙的選舉相關內容。
- 為了助長霸凌及騷擾行為而產生的內容。
- 主要目的是撩撥性慾的生成式 AI 應用程式。
- 由 AI 產生且助長欺騙行為的正式文件。
- 惡意程式碼。