A Política de Conteúdo Gerado pela IA do Google Play ajuda a garantir que o conteúdo gerado pela IA é seguro para todos os utilizadores. Para proteger a segurança dos utilizadores, os programadores devem incorporar determinadas salvaguardas nas respetivas apps. Este artigo partilha práticas recomendadas que os programadores podem adotar para garantir que as respetivas apps estão em conformidade.
Vista geral
Os programadores são responsáveis por garantir que as respetivas apps de IA generativa não geram conteúdo ofensivo, incluindo conteúdo proibido indicado nas Políticas de Conteúdo Impróprio do Google Play, conteúdo que possa explorar ou abusar de crianças e conteúdo que possa enganar os utilizadores ou permitir comportamentos desonestos. As apps de IA generativa também devem estar em conformidade com todas as outras políticas no nosso Centro de Políticas do programador.
Práticas recomendadas
Os programadores devem adotar salvaguardas de conteúdo ao criarem as respetivas apps de IA generativa para garantir a segurança dos utilizadores. Isto inclui a adoção de práticas de testes e segurança alinhadas com as normas da indústria.
Para saber como realizar os testes de segurança da melhor forma, recomendamos que os programadores consultem a Secure AI Framework (SAIF) da Google e o Guia para red teams de IA gen do OWASP Top 10 for LLM Applications & Generative AI Project Alternative: OWASP Top 10 for LLM & Gen AI Project.
Existem diferentes formas de garantir a segurança do conteúdo na sua app de IA generativa, como adotar filtros e classificadores para bloquear entradas e saídas prejudiciais. Muitos fornecedores de modelos de IA publicam recursos para programadores sobre como adotar estas salvaguardas. Seguem-se links para algumas das ofertas e guias de segurança do conteúdo de diferentes fornecedores para referência: