FAQ zur Durchsetzung von YouTube-Community-Richtlinien

Was sind die YouTube-Community-Richtlinien?

Jeder, der YouTube nutzt, ist Teil unserer weltweiten Community. Wir wünschen uns, dass alle Nutzer einen respektvollen Umgang miteinander pflegen und haben daher detaillierte Community-Richtlinien erstellt, in denen beschrieben wird, was auf YouTube nicht erlaubt ist. Zum Beispiel erlauben wir keine Pornografie, Anstiftung zur Gewalt, Belästigung oder Hassrede. Wenn Sie diesen Richtlinien folgen, bleibt YouTube ein Ort, an dem unsere Community wachsen und gedeihen kann.

Wer kann Inhalte wegen möglicher Verstöße gegen die YouTube-Community-Richtlinien melden?

Jeder angemeldete Nutzer kann ein Video melden. Dafür muss er nur auf das Dreipunkt-Menü neben dem Videoplayer klicken und „Melden“ auswählen. Unsere Prüfer sehen sich rund um die Uhr gemeldete Inhalte an und entscheiden, ob diese gegen die YouTube-Community-Richtlinien verstoßen oder nicht. Liegt ein Verstoß vor, wird das entsprechende Video entweder entfernt oder eingeschränkt. Der Creator wird per E‑Mail benachrichtigt und erhält die Möglichkeit, Beschwerde gegen die Entscheidung einzulegen – es sei denn, das Video wurde aus Datenschutzgründen entfernt.

Welche Gründe können Nutzer angeben, wenn sie mögliche Verstöße gegen YouTube-Community-Richtlinien melden?

Wenn Nutzer Videos oder Livestreams melden, müssen sie aus einer Liste einen Grund auswählen, der den Verstoß gegen unsere Community-Richtlinien darstellt, z. B. pornografische Inhalte, Förderung von Terrorismus oder hasserfüllte oder beleidigende Inhalte. Unsere Mitarbeiter prüfen das Video dann auf die gemeldeten Inhalte sowie auf weitere mögliche Verstöße gegen die Community-Richtlinien von YouTube. Videos werden nur dann entfernt oder eingeschränkt, wenn bei unserer Prüfung ein Verstoß festgestellt wurde. Weitere Informationen zur Meldung von unangemessenen Inhalten

Was passiert mit einem Video, das gegen die YouTube-Community-Richtlinien verstößt?

Inhalte, die gegen unsere Community-Richtlinien verstoßen, werden von der Website entfernt. Beim ersten Verstoß sprechen wir gegen den Inhaber des Kanals lediglich eine Warnung aus, beim nächsten Verstoß erhält er eine Verwarnung. Der Creator hat das Recht, gegen unsere Entscheidung Beschwerde einzulegen (es sei denn, das Video wurde nach gründlicher interner Prüfung aus Datenschutzgründen entfernt), was eine erneute Prüfung und eine endgültige Entscheidung zur Folge hat.

Was geschieht, wenn ein Kanal eine Verwarnung erhält?

Wenn der Kanal eines Creators eine Verwarnung wegen eines Verstoßes gegen die Community-Richtlinien erhält, wird der Creator per E-Mail sowie in den Kanaleinstellungen darüber informiert, warum die Inhalte entfernt wurden. Creator sehen außerdem eine Benachrichtigung über die Entfernung, wenn sie das nächste Mal auf einem Computer oder in einer mobilen App auf ihren YouTube-Kanal zugreifen. Hat der Creator die erste Verwarnung für seinen Kanal erhalten, kann er eine Woche lang keine neuen Inhalte posten. Dazu gehören Videos, Livestreams, Stories, benutzerdefinierte Thumbnails und Beiträge. Nach der zweiten Verwarnung kann er zwei Wochen lang keine Inhalte posten.Die Verwarnungen bleiben 90 Tage lang bestehen. Erhält der Kanal des Creators innerhalb von 90 Tagen drei Verwarnungen wegen Verstößen gegen die Community-Richtlinien, wird der Kanal gekündigt. Der Creator kann Beschwerde gegen einzelne Verwarnungen oder die Kündigung des Kanals einlegen. Weitere Informationen

Wie weist YouTube einem Video einen Entfernungsgrund zu? 

Wenn unser geschultes Prüfteam feststellt, dass ein gemeldetes Video gegen die Community-Richtlinien verstößt, beruft sich das Team auf die Richtlinien und die Kriterien zu ihrer Durchsetzung, um einen Grund für das Entfernen des Videos zu bestimmen. In den Fällen, in denen ein Video gegen mehrere Richtlinien verstößt, weist das Prüfteam den Entfernungsgrund anhand des schwerwiegendsten Richtlinienverstoßes zu. Wenn mehrere schwerwiegende Verstöße vorliegen, richtet sich der Entfernungsgrund danach, welcher Richtlinienverstoß am offensichtlichsten ist oder am deutlichsten auf die Absicht des Uploaders schließen lässt. Falls ein Video von unseren Systemen aufgrund von Verstößen gegen unsere Spam-Richtlinien entfernt wird, wird es der Kategorie „Spam“ zugewiesen. Wenn ein Video von unseren Systemen entfernt wird, weil es ein neuer Upload von Inhalten ist, die wir bereits überprüft haben und die gegen unsere Richtlinien verstoßen, weisen wir diesem Video denselben Entfernungsgrund zu wie dem entsprechenden Originalvideo, sofern verfügbar. In anderen Fällen, in denen Inhalte von unseren automatisierten Systemen gemeldet werden, bewerten Prüfer die Inhalte und weisen ihnen einen Entfernungsgrund zu.

Warum ist einigen Videos kein Entfernungsgrund zugewiesen?

Früher protokollierten unsere Prüfer bei der Durchsetzung von Richtlinien nur die erforderlichen Durchsetzungsmaßnahmen, beispielsweise eine Verwarnung oder eine Altersbeschränkung, jedoch nicht den Grund für eine Entfernung. Wenn unsere Systeme heute das nochmalige Hochladen einer genau übereinstimmenden Fassung eines solchen gegen die Richtlinien verstoßenden Videos verhindern oder wenn Prüfer zum Entfernen eines Videos ein älteres Tool zur Durchsetzung von Richtlinien verwenden, wird dem Video kein Entfernungsgrund zugewiesen. Aus diesem Grund haben wir diese Videos unter „Sonstiges“ eingestuft. Wir arbeiten daran, die Zahl der Inhalte in dieser Kategorie zu reduzieren. Dazu gehört auch, dass wir die Gründe für das Entfernen älterer Inhalte, die auf Richtlinienverstöße zurückzuführen sind, nachtragen.  

Wie wird das Land/die Region eines Video-Uploads ermittelt?

Diese Angabe basiert auf der IP-Adresse des Uploaders zum Zeitpunkt des Uploads. Die IP-Adresse lässt in der Regel einen Rückschluss auf den geografischen Standort des Uploaders zu, sofern er kein virtuelles privates Netzwerk (VPN) und keinen Proxy-Server verwendet. Daher wird in diesen Daten nicht unterschieden, ob ein Uploader sich in einem bestimmten Land / einer bestimmten Region befindet oder ein VPN oder einen Proxyserver mit Standort in diesem Land / dieser Region verwendet. Beachten Sie auch, dass die IP-Adresse des Uploaders nicht unbedingt mit dem Ort übereinstimmen muss, an dem das Video angesehen oder gemeldet wurde, wenn es von einem Nutzer oder Priority Flagger gemeldet wurde. 
 

Unsere Community-Richtlinien sind auf eine internationale Durchsetzung ausgelegt. Die IP-Adresse des Uploaders wird bei Entscheidungen über das Entfernen von Inhalten aufgrund von Richtlinienverstößen nicht berücksichtigt. Informationen zum Entfernen von Inhalten auf der Grundlage lokaler Gesetze finden Sie im Google-Transparenzbericht „Behördliche Ersuchen um Entfernung von Inhalten“.

Was führt zur Kündigung eines Kanals?

Ein Kanal wird gekündigt, wenn die in den Community-Richtlinien festgelegte Obergrenze von drei Verwarnungen erreicht ist, bei einmaligem schwerem Missbrauch, z. B. bei sexuell missbräuchlichem Verhalten, oder bei Konten, die speziell für Verstöße gegen unsere Richtlinien eingerichtet wurden, z. B. zum Identitätsdiebstahl. Wenn ein Kanal gekündigt wird, werden alle zugehörigen Videos entfernt. Bei der Kündigung eines Kontos erhält der Kontoinhaber eine E‑Mail mit Angaben zum Kündigungsgrund. Wenn ein Nutzer der Meinung ist, dass sein Konto fälschlicherweise gekündigt wurde, kann er gegen die Entscheidung Beschwerde einlegen.

Werden gemeldete Inhalte automatisch entfernt?

Bei Videos, die von Nutzern gemeldet wurden, ergreift YouTube erst nach Prüfung durch unsere geschulten Mitarbeiter entsprechende Maßnahmen, um zu kontrollieren, ob Inhalte tatsächlich gegen unsere Richtlinien verstoßen, und um Inhalte zu schützen, die pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zwecken dienen. Wir verwenden jedoch auch Technologien, die uns dabei helfen, Spam automatisch zu identifizieren und zu entfernen. Unser System erkennt außerdem, wenn bereits geprüfte Inhalte, die gegen unsere Richtlinien verstoßen, noch einmal hochgeladen werden. Darüber hinaus gibt es bestimmte Fälle, in denen wir das Video möglicherweise nicht vollständig entfernen, aber bestimmte Funktionen wie das Kommentieren deaktivieren oder die Zielgruppe auf angemeldete Nutzer beschränken, die über 18 Jahre alt sind. Creator werden von uns benachrichtigt, wenn aufgrund von Verstößen Maßnahmen gegen ihre Videos ergriffen werden. Sie können Beschwerde einlegen, falls sie der Meinung sind, dass ein Fehler vorliegt.

Wie kann YouTube ein Video einschränken, anstatt es zu entfernen?

  • Altersbeschränkung: Einige Videos verstoßen nicht gegen unsere Community-Richtlinien und sind auch nicht rechtswidrig, sind aber möglicherweise nicht für alle Zielgruppen geeignet. In diesen Fällen und nach entsprechender Beschwerde legen unsere Prüfteams eine Altersbeschränkung für die Videos fest. Altersbeschränkte Videos sind nur für Nutzer sichtbar, die angemeldet und mindestens 18 Jahre alt sind und nicht den eingeschränkten Modus aktiviert haben. Wenn wir die Entscheidung treffen, Inhalte einzuschränken, benachrichtigen wir den Creator entsprechend per E-Mail darüber. Der Creator hat die Möglichkeit, gegen diese Entscheidung Beschwerde einzulegen. Weitere Informationen

  • Eingeschränkte Funktionen: Wenn unsere Prüfteams feststellen, dass ein Video im Rahmen unserer Community-Richtlinien grenzwertig ist, können einige Funktionen rund um das Video deaktiviert werden. Diese Videos bleiben zwar auf YouTube verfügbar, werden aber hinter einer Warnmeldung angezeigt. Außerdem werden einige Funktionen deaktiviert, u. a. das Teilen, Kommentieren, „Mag ich“-Bewertungen und die Platzierung in den vorgeschlagenen Videos. Solche Videos können auch nicht monetarisiert werden. Wenn wir die Entscheidung treffen, Funktionen einzuschränken, benachrichtigen wir den Creator entsprechend per E-Mail darüber. Der Creator hat die Möglichkeit, gegen diese Entscheidung Beschwerde einzulegen. Weitere Informationen

  • Als privat gesperrt: Wenn ein Video gegen unsere Richtlinie über irreführende Metadaten verstößt, kann es als privat gesperrt werden. Es ist dann für die Öffentlichkeit nicht mehr sichtbar. Wenn ein Nutzer das Video über einen Link aufrufen möchte, wird eine Nachricht angezeigt, dass das Video nicht verfügbar ist. Wenn wir diese Entscheidung treffen, teilen wir dem Creator per E-Mail mit, dass das Video nicht mehr öffentlich ist und er Beschwerde gegen diese Entscheidung einlegen kann. Weitere Informationen

Die oben genannten Maßnahmen zur Einschränkung von Videos sind derzeit nicht im Bericht enthalten.

Welche Maßnahmen können YouTube oder YouTube-Creator für Kommentare ergreifen, außer sie zu entfernen?

Creator haben verschiedene Möglichkeiten, auf Kommentare zu ihren Videos und Kanälen zu reagieren, z. B.:

  • Kommentare deaktivieren: Creator können entscheiden, ob sie Kommentare für bestimmte Videos aktivieren oder deaktivieren möchten. Weitere Informationen

  • Kommentarfilter einrichten: Creator können Filter einrichten, die ihnen beim Verwalten neuer Kommentare und Nachrichten helfen. Sie können u. a. Nutzer auswählen, deren Kommentare immer genehmigt oder blockiert werden, und eine Liste gesperrter Wörter hinzufügen, mit der alle neuen Kommentare, die diese Wörter enthalten, herausgefiltert und in die Warteschlange „Überprüfung ausstehend“ des Creators gestellt werden. Auch Kommentare, die Links enthalten, können mit einem Filter zurückgehalten werden, bis sie vom Creator überprüft wurden. Weitere Informationen

  • Kommentare moderieren: Creator können für die Moderation ihrer Videos und Kanäle unterschiedliche Einstellungen festlegen, die sich jeweils auf einzelne Videos oder auf ganze Kanäle beziehen können. Sie haben u. a. die Möglichkeit, alle neuen Kommentare zurückzuhalten und zu überprüfen, bevor sie für ihr Video oder ihren Kanal gepostet werden, oder nur potenziell unangemessene Kommentare für eine Überprüfung zurückzuhalten. Wenn sie diese Funktion aktivieren, erscheinen zurückgehaltene Kommentare in der Warteschlange „Überprüfung ausstehend“. Auf diese Weise haben Creator die letzte Entscheidung darüber, ob sie diese Kommentare genehmigen, ausblenden oder melden möchten. Weitere Informationen

Die oben genannten Maßnahmen zum Moderieren von Kommentaren sind derzeit nicht im Bericht enthalten. Er umfasst nur Daten zu Kommentaren, die YouTube aufgrund von Richtlinienverstößen entfernt oder als potenziellen Spam herausgefiltert hat. Der Bericht enthält auch keine Kommentare, die entfernt werden, wenn YouTube den Kommentarbereich eines Videos deaktiviert, wenn ein Video einzeln oder durch eine Kanalsperrung entfernt wird oder wenn das Konto eines Kommentierenden gekündigt wird.

Wer prüft gemeldete Videos, um Entscheidungen über das Entfernen oder Einschränken von Inhalten zu treffen?

Geschulte Mitarbeiter prüfen gemeldete Videos, um zu bestätigen, dass tatsächlich Verstöße gegen unsere Richtlinien vorliegen. Außerdem möchten wir hierdurch Inhalte schützen, die pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zwecken dienen. Unsere Teams befinden sich in Ländern auf der ganzen Welt, sprechen mehrere Sprachen fließend und werten gemeldete Videos rund um die Uhr sorgfältig aus. Die Prüfer sind umfassend in den YouTube-Community-Richtlinien geschult und spezialisieren sich häufig auf bestimmte Bereiche wie Kinderschutz oder Hassrede. Sie entfernen Inhalte, die gegen unsere Nutzungsbedingungen verstoßen, beschränken Inhalte, die möglicherweise nicht für alle Zielgruppen geeignet sind, und achten darauf, dass Inhalte verfügbar bleiben, wenn sie nicht gegen unsere Richtlinien verstoßen.

Wie werden die Prüfer geschult?

Unsere YouTube-Prüfer durchlaufen ein umfassendes Schulungsprogramm, um die YouTube-Community-Richtlinien auch wirklich zu verstehen – einschließlich des Auffindens und Schutzes von Inhalten, die pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zwecken dienen. Das Training ist eine Mischung aus Online- und herkömmlichem Unterricht. Um das Wissen der Prüfer zu festigen, gehören auch Tests zum Schulungsprozess. Ein kontinuierliches Qualitätssicherungsprogramm wertet die Entscheidungen der Prüfer aus und identifiziert Verbesserungsmöglichkeiten. Wenn Fehler passieren – entweder durch menschliches Versagen oder durch Störungen in unseren technologischen Systemen –, bemühen wir uns, den Fehler zu korrigieren, sorgfältig zu analysieren, was passiert ist, und Maßnahmen zu ergreifen, um ähnliche Fehler in der Zukunft zu vermeiden.

Machen menschliche Prüfer jemals Fehler?

Ja. Die Prüfer von YouTube sind gut ausgebildet, aber wie bei jedem anderen System können auch ihnen Fehler passieren. Darum können Nutzer gegen ihre Entscheidungen Beschwerde einlegen.

Was passiert aus der Sicht eines Creators, wenn ein Video wegen eines Verstoßes gegen die Community-Richtlinien entfernt oder eingeschränkt wird?

Creator werden per E‑Mail und über die Kanaleinstellungen benachrichtigt. Auch ein Link, um Beschwerde einzulegen, ist enthalten – es sei denn, das Video wurde aus Datenschutzgründen entfernt. Creator erhalten außerdem eine Benachrichtigung über die Entfernung, wenn sie das nächste Mal auf einem Computer oder in einer mobilen App auf ihren YouTube-Kanal zugreifen. Falls ein Creator Beschwerde einlegt, wird diese manuell überprüft und die Entscheidung entweder bestätigt oder zurückgenommen. Der Creator wird per E-Mail über das Ergebnis informiert.

Wie werden Verstöße gegen die YouTube-Community-Richtlinien sonst noch identifiziert?

YouTube verlässt sich seit Langem auf das Zweigespann aus Mensch und Technologie, um Richtlinien durchzusetzen. Neben Meldungen durch Nutzer verwenden wir auch Technologie, um Inhalte zu identifizieren, die möglicherweise gegen unsere Community-Richtlinien verstoßen. Diese Inhalte werden geschulten Mitarbeitern vorgelegt, die die möglichen Verstöße prüfen. Die Maßnahme entfällt jedoch, wenn wir uns sehr sicher sind, dass die betreffenden Inhalte gegen unsere Richtlinien verstoßen. Beispielsweise nutzen wir Tools, die Spam jeweils anhand bestimmter Signale, die wir sicher mit missbräuchlichen Praktiken in Verbindung bringen können, automatisch erkennen und entfernen können. Wir entfernen auch automatisch neue Uploads von Inhalten, die wir bereits überprüft haben und die gegen unsere Richtlinien verstoßen.

Wie funktioniert die automatische Meldung?

Die automatischen Meldesysteme von YouTube werden aktiv, sobald ein Nutzer versucht, ein Video zu veröffentlichen oder einen Kommentar zu posten. Die Inhalte werden von Computern gescannt, um zu erkennen, ob sie gegen die Community-Richtlinien von YouTube verstoßen. YouTube verwendet außerdem automatisierte Systeme, um zu verhindern, dass Inhalte, die bekanntermaßen gegen unsere Richtlinien verstoßen, neu hochgeladen werden. Das bezieht sich auch auf die Verwendung von Hash-Technologie (oder digitalen Fingerabdrücken).

Welche Daten sind im Bericht „YouTube-Community-Richtlinien und ihre Anwendung“ enthalten und welche nicht?

Dieser Bericht enthält Daten zu Meldungen durch Nutzer sowie automatisierten Meldungen zu Inhalten, die wegen möglicher Verstöße gegen YouTube-Community-Richtlinien registriert wurden. Im Dezember 2018 wurden Daten zur Kündigung von Kanälen sowie zur Entfernung von Kommentaren hinzugefügt. Seit September 2018 sind Daten zu Gründen für die Entfernung von Kanälen und Videos enthalten. Andere Inhalte auf YouTube können ebenfalls gemeldet werden, einschließlich Kommentaren und Playlists. Diese sind jedoch derzeit nicht in diesem Bericht enthalten. Auch Inhalte, die aus rechtlichen Gründen entfernt wurden, finden sich nicht im Bericht – diese stehen im Bericht zur Entfernung von Inhalten aufgrund von behördlichen Ersuchen. Gleiches gilt für Inhalte, die wegen eines Verstoßes gegen Datenschutz oder Urheberrecht entfernt wurden.

Ist jede Meldung in diesem Bericht enthalten?

Von Oktober bis Dezember 2017 – dies ist der Zeitraum, auf den sich der erste Bericht bezieht – haben wir für Videos über 30 Millionen Meldungen durch Nutzer erhalten. Um den Missbrauch unserer Meldesysteme zu verhindern, verfügt YouTube über Systeme, die Dinge wie verdächtige oder außergewöhnlich hohe Meldungsaufkommen erkennen. Meldungen, die außerhalb dieser Grenzen liegen, sind in der Datenmenge dieses Berichts nicht enthalten. Unsere Systeme werden von Zeit zu Zeit angepasst, sodass sie weiterhin wirksam gegen Missbrauch sind. Dies ist einer von vielen Faktoren, die die vierteljährlich registrierte Anzahl von Meldungen beeinflussen. Darüber hinaus sind Rechts-, Urheberrechts- und Datenschutzverstöße von diesem Bericht ausgeschlossen, ebenso wie Inhalte, die keine Videos sind.

Was sind Priority Flagger?

Im Rahmen des Priority Flagger Program können aktive Melder über eine spezielle Meldefunktion mehrere Inhalte gleichzeitig melden, die mutmaßlich gegen unsere Community-Richtlinien verstoßen. NROs und Behörden können an diesem Programm teilnehmen. Im Rahmen des Onboarding-Prozesses werden alle Mitglieder in den YouTube-Community-Richtlinien geschult. Da die Meldungen der Programmteilnehmer eine höhere Aktionsrate haben als Meldungen anderer Nutzer, priorisieren wir die Überprüfung von Priority Flagger-Meldungen. Von Priority Flaggern gemeldete Inhalte werden aber weder automatisch entfernt noch auf andere Richtlinien geprüft als die Meldungen anderer Nutzer. Videos, die von Priority Flaggern gemeldet werden, unterliegen den gleichen Richtlinien wie Videos, die von anderen Nutzern gemeldet wurden. Unsere geschulten Prüfer überprüfen diese und entscheiden, ob die betreffenden Inhalte gegen unsere Community-Richtlinien verstoßen und entfernt werden müssen. Weitere Informationen

Gibt es andere Möglichkeiten, unangemessene Inhalte zu melden?

Wenn beim Meldevorgang das Anliegen eines Nutzers nicht genau erfasst werden kann, gibt es noch einige andere Möglichkeiten zum Melden von Inhalten.

  • Tool zum Melden von sicherheitsrelevanten Vorfällen und Missbrauchsfällen: Manchmal müssen mehrere Inhalte gemeldet oder ein ausführlicher Bericht eingereicht werden, um eine Meldung zu überprüfen. Das Tool zum Melden von sicherheitsrelevanten Vorfällen und Missbrauchsfällen kann verwendet werden, um die Kommentare und Videos eines Nutzers hervorzuheben und zusätzliche Informationen zu einem Problem anzugeben. Wenn ein Nutzer der Meinung ist, dass er gezielt beleidigt wurde, ist dieses Tool die beste Option, um Inhalte zu melden.

  • Datenschutzbeschwerden: Datenschutzbeschwerden können über das Verfahren für Datenschutzbeschwerden gemeldet werden.

  • Rechtliche Probleme (einschließlich Urheberrecht): Rechtliche Probleme der meldenden Einzelperson oder eines Mandanten können über unser Webformular gemeldet werden.

  • Lebensgefährliche Verletzung oder Tod: Wir bemühen uns sehr, die Wünsche von Familien in Bezug auf Aufnahmen ihrer Angehörigen, die lebensgefährlich verletzt wurden, zu respektieren. Anträge auf Entfernung solcher Inhalte können über unser Webformular eingereicht werden.

Was führt zu einer Aktualisierung der Verlaufsdaten im Bericht?

Wir verpflichten uns, durch diesen Bericht Transparenz zu schaffen. In einigen Fällen entdecken wir möglicherweise einen Fehler in den Daten, nachdem wir diese veröffentlicht haben. Wenn dies wesentliche Auswirkungen auf die in einem früheren Quartal veröffentlichten Daten hat, korrigieren wir die Verlaufsdaten im Bericht und fügen einen Hinweis auf die Änderung in den Bericht ein. 

Wie wird die VVR (Violative View Rate) berechnet?

Zuerst wird eine Stichprobe der Videos genommen, die auf YouTube angesehen wurden. Die Videos in dieser Stichprobe werden dann zur Überprüfung gesendet und unsere Teams entscheiden, ob die einzelnen Videos gegen unsere Community-Richtlinien verstoßen. Anhand der Ergebnisse wird dann der Anteil der Aufrufe von YouTube-Videos geschätzt, die gegen unsere Community-Richtlinien verstoßen. Der VVR-Messwert wird mit einem Konfidenzintervall von 95 % angegeben. Das bedeutet, dass der korrekte Wert voraussichtlich in 95 % der Fälle innerhalb des Intervalls liegen würde, wenn wir die Messung mehrmals für denselben Zeitraum vornehmen würden. Bei Konfidenzintervallen wird nicht die Qualität der Prüfer berücksichtigt, was sich auf die Messungen auswirken kann. Wir bewerten die Qualität unserer Prüfer regelmäßig, um für möglichst korrekte Überprüfungsentscheidungen zu sorgen.

Vor dem 1. Quartal 2019 basierte die VVR nur auf Überprüfungen der letzten 28 Tage im jeweiligen Quartal. Im 4. Quartal 2018 war das z. B. der Zeitraum vom 3. Dezember 2018 bis zum 31. Dezember 2018. Ab dem 2. Quartal 2019 werden Überprüfungen aus dem gesamten Quartal herangezogen. In den letzten beiden Wochen des 1. und den ersten beiden Wochen des 2. Quartals 2020 war die Verfügbarkeit der Prüfer für VVR-Überprüfungen aufgrund der Coronakrise eingeschränkt. Daher konnten nicht alle Stichproben überprüft werden und die Daten eines Teils dieser Zeiträume sind darum eventuell nicht repräsentativ.

Welche Richtlinien werden bei der VVR berücksichtigt?

Die VVR (Violative View Rate) gibt den Anteil der Aufrufe von Videos an, die YouTube aufgrund eines Verstoßes gegen die Community-Richtlinien bereits hätte entfernen müssen. Dieser Messwert betrifft keine Videos, die nicht gegen die Richtlinien verstoßen, aber im Zuge der Entfernung eines Kanals entfernt wurden. Wir berücksichtigen bei diesem Messwert auch keinen Spam, weil die Entfernung von Spamkanälen den Großteil der Entfernungen wegen Spam ausmacht. Die VVR betrifft auch keine Livestreams, abgesehen von Livestreams, die in On-Demand-Videos umgewandelt wurden.
Hauptmenü
8458450764268454134
true
Suchen in der Hilfe
true
true
true
false
false