Google Plays policy för AI-genererat innehåll bidrar till att göra AI-genererat innehåll säkert för alla användare. För att skydda användarnas säkerhet ska utvecklare införa särskilda säkerhetsåtgärder i sina appar. I den här artikeln beskriver vi rekommenderade metoder som utvecklare kan använda för att se till att apparna följer policyn.
Översikt
Utvecklarna ansvarar för att deras generativa AI-appar inte genererar stötande innehåll, inklusive innehåll som är förbjudet enligt Google Plays policyer för olämpligt innehåll, innehåll som kan utnyttja eller skada barn eller innehåll som kan vilseleda användarna eller möjliggöra ohederligt beteende. Generativa AI-appar ska även efterleva alla andra policyer som finns i vårt policycenter för utvecklare.
Rekommenderade metoder
Utvecklare bör använda innehållsskydd när de skapar generativa AI-appar för att skydda användarna. Det omfattar att utföra testning och använda säkerhetsmetoder som följer branschstandarder.
Utvecklare som vill veta mer om hur de kan utföra säkerhetstestning kan läsa Googles säkerhetsramverk för AI (SAIF) och GenAI Red Teaming Guide från OWASP GenAI Security Project.
Det finns olika sätt att se till att innehållet i din generativa AI-app är säkert, till exempel genom att använda filter och klassificerare för att blockera skadlig input och output. Många leverantörer av AI-modeller publicerar resurser för utvecklare om hur de kan använda dessa säkerhetsåtgärder. Nedan hittar du länkar till några av erbjudandena och guiderna för innehållssäkerhet från olika leverantörer: