Google Play의 AI 생성 콘텐츠 정책은 AI 생성 콘텐츠가 모든 사용자에게 안전하도록 하는 데 도움이 됩니다. 개발자는 사용자 안전을 보호하기 위해 앱에 특정 보호 장치를 통합해야 합니다. 이 도움말에서는 개발자가 앱이 규정을 준수하도록 하기 위해 채택할 수 있는 권장사항을 공유합니다.
개요
개발자는 생성형 AI 앱이 Google Play의 부적절한 콘텐츠 정책에 명시된 금지된 콘텐츠, 아동을 착취 또는 학대할 수 있는 콘텐츠, 사용자를 속이거나 부정 행위를 조장하는 콘텐츠를 비롯한 불쾌감을 주는 콘텐츠를 생성하지 않도록 할 책임이 있습니다. 생성형 AI 앱은 Google의 개발자 정책 센터에 명시된 다른 정책도 모두 준수해야 합니다.
권장사항
개발자는 생성형 AI 앱을 빌드할 때 사용자 안전을 보장하기 위해 콘텐츠 보호 장치를 채택해야 합니다. 여기에는 업계 표준에 부합하는 테스트 및 보안 관행을 채택하는 것이 포함됩니다.
안전 테스트를 가장 효과적으로 수행하는 방법을 알아보려면 개발자는 Google의 안전한 AI 프레임워크(SAIF)와 LLM 애플리케이션 및 생성형 AI 프로젝트를 위한 OWASP Top 10 또는 LLM 및 생성형 AI 프로젝트를 위한 OWASP Top 10의 생성형 AI 레드팀 가이드를 참고하는 것이 좋습니다.
생성형 AI 앱에서 콘텐츠 안전을 보장하는 방법으로는 필터와 분류기를 채택하여 유해한 입력과 출력을 차단하는 것 등 여러 가지가 있습니다. 상당수의 AI 모델 제공업체는 개발자를 위해 이러한 보호 장치를 채택하는 방법에 관한 리소스를 게시합니다. 다음은 다양한 제공업체의 콘텐츠 안전 관련 서비스 및 가이드를 참고할 수 있는 링크입니다.