Von Nutzern erstellte Inhalte sind Inhalte, die Nutzer zu einer App beitragen und die für mindestens einen Teil der anderen Nutzer der App sichtbar sind.
Apps, die von Nutzern erstellte Inhalte enthalten oder darauf verweisen, darunter Apps, die spezialisierte Browser oder Clients sind, über die Nutzer auf entsprechende Plattformen weitergeleitet werden, müssen zuverlässige, wirksame und dauerhafte Verfahren zur Moderation der von Nutzern erstellten Inhalte implementieren:
- Nutzer müssen die Nutzungsbedingungen und/oder Nutzerrichtlinien der App akzeptieren, bevor sie Inhalte erstellen oder hochladen dürfen.
- Anstößige Inhalte und anstößiges Verhalten müssen gemäß den Programmrichtlinien für Entwickler von Google Play definiert und in den Nutzungsbedingungen oder Nutzerrichtlinien der App untersagt werden.
- Es müssen angemessene, dauerhafte Verfahren zur Moderation der von Nutzern erstellten Inhalte implementiert werden, die den in der App gehosteten Inhalten gerecht werden. Dazu gehört die Bereitstellung eines Systems in der App zum Melden und Blockieren von Nutzern und anstößigen von Nutzern erstellten Inhalten sowie Maßnahmen gegen Nutzer oder von Nutzern erstellte Inhalte, falls erforderlich. Unterschiedliche von Nutzern erstellte Inhalte erfordern möglicherweise unterschiedliche Verfahren zur Moderation. Beispiele:
- Apps, die von Nutzern erstellte Inhalte bereitstellen und eine bestimmte Gruppe von Nutzern durch Mittel wie Nutzerbestätigung oder Offline-Registrierung identifizieren (z. B. Apps, die ausschließlich in einer bestimmten Schule oder einem bestimmten Unternehmen verwendet werden usw.), müssen eine In-App-Funktion zur Meldung von Inhalten und Nutzern bieten.
- Funktionen, die von Nutzern erstellte Inhalte bereitstellen und 1:1-Interaktionen mit bestimmten Nutzern ermöglichen (z. B. Direktnachrichten, Tagging, Erwähnungen usw.) müssen eine In-App-Funktion zum Blockieren von Nutzern bieten.
- Apps, die Zugriff auf öffentlich zugängliche von Nutzern erstellte Inhalte bieten (z. B. Apps für soziale Netzwerke oder zum Bloggen), müssen eine In-App-Funktion zur Meldung von Inhalten und Nutzern sowie zum Blockieren von Nutzern enthalten.
- Bei Augmented Reality-Apps (AR) müssen bei der Moderation der von Nutzern erstellten Inhalte (einschließlich des In-App-Berichtssystems) sowohl unangemessene von Nutzern erstellte AR-Inhalte (z. B. ein sexuell explizites AR-Bild) als auch sensible AR-Verankerungsorte (z. B. AR-Inhalte, die mit einem eingeschränkt zugänglichen Bereich wie einem Militärstützpunkt oder einem privaten Grundstück verankert sind, bei dem die AR-Verankerung Probleme für den Grundstückseigentümer verursachen kann) berücksichtigt werden.
- Es müssen Absicherungen implementiert werden, um zu vermeiden, dass unangemessenes Nutzerverhalten durch In-App-Monetarisierung gefördert wird.
Nebensächliche pornografische Inhalte
Sexuelle Inhalte gelten als „nebensächlich“, wenn sie in einer App mit von Nutzern erstellten Inhalten erscheinen, die (1) Zugriff auf hauptsächlich nicht sexuelle Inhalte bietet und (2) nicht aktiv sexuelle Inhalte bewirbt oder darauf verweist. Sexuelle Inhalte, die nach anwendbarem Recht illegal sind, und Inhalte, die eine Gefährdung von Kindern darstellen, werden nicht als „nebensächlich“ eingestuft und sind nicht zulässig.
Apps mit von Nutzern erstellten Inhalten dürfen nebensächliche sexuelle Inhalte enthalten, sofern alle der folgenden Voraussetzungen erfüllt sind:
- Die betreffenden Inhalte sind standardmäßig hinter Filtern verborgen, bei denen mindestens zwei Nutzeraktionen erforderlich sind, um sie vollständig zu deaktivieren. Das kann z. B. ein Interstitial zur Verschleierung sein oder sie werden standardmäßig nicht angezeigt, es sei denn, die Funktion „SafeSearch“ ist deaktiviert.
- Kindern, wie in der Richtlinie für familienfreundliche Inhalte definiert, ist es ausdrücklich untersagt, auf Ihre App zuzugreifen. Dazu werden Systeme zur Altersüberprüfung eingesetzt, wie z. B. eine neutrale Altersabfrage oder ein nach anwendbarem Recht definiertes angemessenes System.
- Wie in der Richtlinie zur Altersfreigabe vorgeschrieben, haben Sie für Ihre App die Fragen zu von Nutzern erstellten Inhalten im Fragebogen zur Altersfreigabe ordnungsgemäß beantwortet.
Apps, die in erster Linie unangemessene von Nutzern erstellte Inhalte enthalten, werden von Google Play entfernt. Das Gleiche gilt für Apps, die primär zum Hosten dieser Inhalte verwendet werden oder bei Nutzern einen entsprechenden Ruf erlangen.
- Werbung für von Nutzern erstellte, sexuell explizite Inhalte, einschließlich der Implementierung oder Zulassung kostenpflichtiger Funktionen, durch die die Verbreitung unangemessener Inhalte gefördert wird
- Apps mit von Nutzern erstellten Inhalten, denen ausreichende Sicherheitsvorkehrungen zum Schutz vor Drohungen, Belästigungen oder Mobbing fehlen, besonders im Hinblick auf Minderjährige
- Beiträge, Kommentare oder Fotos in einer App, mit denen in erster Linie eine andere Person belästigt oder herausgegriffen werden soll, ob aus Heimtücke oder um diese zu beschimpfen oder zu verhöhnen
- Apps, die Beschwerden von Nutzern zu unangemessenen Inhalten wiederholt nicht angehen