La política de Contenido Generado por IA de Google Play ayuda a garantizar que el contenido generado por IA sea seguro para todos los usuarios. Para proteger la seguridad de los usuarios, los desarrolladores deben incorporar ciertas protecciones en sus apps. En este artículo, se comparten prácticas recomendadas que los desarrolladores pueden adoptar para garantizar que sus apps cumplan con los requisitos.
Descripción general
Los desarrolladores son responsables de garantizar que sus apps de IA generativa no creen contenido ofensivo, incluido el contenido prohibido que se incluye en las políticas de Contenido Inapropiado de Google Play, el contenido que podría constituir explotación o abuso infantil y el contenido que pueda engañar a los usuarios o promover comportamientos fraudulentos. Las apps de IA generativa también deben satisfacer todas las demás políticas de nuestro Centro de políticas para desarrolladores.
Prácticas recomendadas
Los desarrolladores deben adoptar protecciones de contenido cuando compilan sus apps de IA generativa para garantizar la seguridad de los usuarios. Esto incluye adoptar prácticas de seguridad y pruebas que estén alineadas con los estándares de la industria.
Para saber cómo realizar las pruebas de seguridad de la mejor manera, se recomienda a los desarrolladores que consulten el Secure AI Framework (SAIF) de Google y la guía sobre equipos rojos de IA generativa de OWASP Top 10 for LLM Applications & Generative AI Project Alternative: OWASP Top 10 for LLM & Gen AI Project (solo disponible en inglés).
Existen diferentes maneras de garantizar la seguridad del contenido en tu app de IA generativa, como adoptar filtros y clasificadores para bloquear entradas y salidas dañinas. Muchos proveedores de modelos de IA publican recursos para desarrolladores sobre cómo adoptar estas protecciones. A continuación, se incluyen vínculos a algunas de las ofertas y guías de seguridad del contenido de diferentes proveedores que puedes consultar: