알림

Play Console 계정의 도움말 페이지에서 이제 지원을 요청할 수 있습니다. Play Console에 접근할 수 없다면, 계정 관리자에게 초대를 요청하세요.

AI 생성 콘텐츠 안전을 위한 권장사항

Google Play의 AI 생성 콘텐츠 정책은 AI 생성 콘텐츠가 모든 사용자에게 안전하도록 하는 데 도움이 됩니다. 개발자는 사용자 안전을 보호하기 위해 앱에 특정 보호 장치를 통합해야 합니다. 이 도움말에서는 개발자가 앱이 규정을 준수하도록 하기 위해 채택할 수 있는 권장사항을 공유합니다.

개요

개발자는 생성형 AI 앱이 Google Play의 부적절한 콘텐츠 정책에 명시된 금지된 콘텐츠, 아동을 착취 또는 학대할 수 있는 콘텐츠, 사용자를 속이거나 부정 행위를 조장하는 콘텐츠를 비롯한 불쾌감을 주는 콘텐츠를 생성하지 않도록 할 책임이 있습니다. 생성형 AI 앱은 Google의 개발자 정책 센터에 명시된 다른 정책도 모두 준수해야 합니다.

권장사항

개발자는 생성형 AI 앱을 빌드할 때 사용자 안전을 보장하기 위해 콘텐츠 보호 장치를 채택해야 합니다. 여기에는 업계 표준에 부합하는 테스트 및 보안 관행을 채택하는 것이 포함됩니다.

안전 테스트를 가장 효과적으로 수행하는 방법을 알아보려면 개발자는 Google의 안전한 AI 프레임워크(SAIF)와 LLM 애플리케이션 및 생성형 AI 프로젝트를 위한 OWASP Top 10 또는 LLM 및 생성형 AI 프로젝트를 위한 OWASP Top 10의 생성형 AI 레드팀 가이드를 참고하는 것이 좋습니다.

생성형 AI 앱에서 콘텐츠 안전을 보장하는 방법으로는 필터와 분류기를 채택하여 유해한 입력과 출력을 차단하는 것 등 여러 가지가 있습니다. 상당수의 AI 모델 제공업체는 개발자를 위해 이러한 보호 장치를 채택하는 방법에 관한 리소스를 게시합니다. 다음은 다양한 제공업체의 콘텐츠 안전 관련 서비스 및 가이드를 참고할 수 있는 링크입니다.

관련 콘텐츠

도움이 되었나요?

어떻게 하면 개선할 수 있을까요?
true
검색
검색어 지우기
검색 닫기
Google 앱
기본 메뉴
16175130257619073450
true
도움말 센터 검색
false
true
true
true
true
true
92637
false
false
false
false