Mit der Richtlinie für KI‑generierte Inhalte von Google Play soll dafür Sorge getragen werden, dass KI-generierte Inhalte für alle Nutzer sicher sind. Zum Schutz der Nutzer sollten Entwickler bestimmte Sicherheitsvorkehrungen in ihre Apps einbinden. In diesem Artikel stellen wir Best Practices vor, mit denen Entwickler dafür sorgen können, dass ihre Apps konform sind.
Übersicht
Entwickler sind dafür verantwortlich, dass ihre Apps mit generativer KI keine anstößigen Inhalte generieren. Dazu gehören unzulässige Inhalte, die in den Richtlinien zu unangemessenen Inhalten von Google Play aufgeführt sind, Inhalte mit möglichem Bezug auf die Ausbeutung oder den sexuellen Missbrauch von Kindern, und Inhalte, die Nutzer täuschen oder unlauteres Verhalten ermöglichen können. Apps mit generativer KI müssen auch allen anderen Richtlinien in unserer Richtlinienübersicht für Entwickler entsprechen.
Best Practices
Zum Schutz der Nutzer sollten Entwickler in ihre Apps mit generativer KI Sicherheitsvorkehrungen für Inhalte einbinden. Dazu gehören auch Tests und Sicherheitspraktiken, die den Branchenstandards entsprechen.
Entwicklern, die Informationen zur optimalen Vorgehensweise für Sicherheitstests suchen, empfehlen wir, sich das Secure AI Framework (SAIF) von Google und den GenAI Red Teaming Guide aus den OWASP Top 10 for LLM Applications & Generative AI Projects anzusehen. Alternative: OWASP Top 10 for LLM & Gen AI Project.
Es gibt verschiedene Möglichkeiten, in Apps mit generativer KI für Inhaltssicherheit zu sorgen. Dazu gehören beispielsweise Filter und Klassifikatoren, mit denen schädliche Eingaben und Ausgaben blockiert werden. Viele Anbieter von KI-Modellen veröffentlichen Ressourcen für Entwickler, in denen erklärt wird, wie diese Sicherheitsvorkehrungen umgesetzt werden können. Im Folgenden finden Sie Links zu einigen Angeboten und Leitfäden zum Thema Inhaltssicherheit verschiedener Anbieter: