Im Transparenzbericht zu den Community-Richtlinien veröffentlichte YouTube kürzlich die Statistiken für den Zeitraum April bis Juni 2024. Während die Zahlen ein beeindruckendes Bild der Moderationsaktivitäten vermitteln, werfen sie zugleich wichtige Fragen auf.
Globale Zahlen – fehlende Klarheit im Kontext
Ein weiterer Kritikpunkt betrifft die geografische Zuordnung der Daten. Obwohl die meisten Zahlen im Bericht globaler Natur sind, fehlt an vielen Stellen der explizite Hinweis darauf. Dies könnte zu Missverständnissen führen.
Auch Andreas Briese, YouTubes Country Director für Deutschland, thematisierte den Transparenzbericht für das zweite Quartal 2024 auf LinkedIn, ging dabei jedoch nicht darauf ein, dass die genannten Zahlen weltweiter Natur sind. Dies wäre für die Einordnung und Diskussion von regionalen Herausforderungen jedoch essenziell.
Meldungen ohne Konsequenzen oder Prüfung: Ein blinder Fleck
Interessant sind immer auch die Punkte, die nicht erwähnt werden. Ein Aspekt, der im Transparenzbericht fehlt, betrifft die Fälle, in denen gemeldete Inhalte:
Nicht geprüft wurden: Gibt es Meldungen, die aufgrund von Kapazitätsgrenzen nicht bearbeitet wurden? Falls ja, wie viele waren es? Von wem wurden diese Fälle an YouTube gemeldet (manuelle Meldungen durch Nutzer oder Priority Flagger)? Was waren die Meldegründe?
Geprüft, aber ohne Konsequenzen geblieben sind: Wie viele Meldungen führten weder zu einer Löschung noch zu Einschränkungen für die Inhalte oder deren Urheber:innen? Und warum genau wurden diese nicht moderiert? Was waren jeweils die Gründe dafür?
Diese Informationen wären entscheidend, um zu verstehen, wie effektiv das Meldesystem wirklich ist. Fehlen diese Daten, ist eine vollständige Bewertung der Moderationsaktivitäten nicht möglich.
Wer sind die Priority Flagger in Deutschland?
Neben der Automatisierung spielt auch die Arbeit sogenannter Priority Flagger eine entscheidende Rolle. Dabei handelt es sich um speziell geschulte Organisationen oder Einzelpersonen, die Meldungen mit hoher Priorität einreichen können.
Doch wer genau ist in Deutschland als Priority Flagger aktiv? Wie viele Personen sind das? Weltweit und in Deutschland?
Unstimmigkeiten bei den Statistiken: Die Differenz bei entfernten Videos
In der Statistik "Entfernte Videos nach Land/Region" wird eine Summe von 7.463.825 entfernten Videos ausgewiesen. Gleichzeitig gibt YouTube jedoch die Gesamtzahl entfernter Videos für das zweite Quartal 2024 mit 8.497.876 an.
Das ergibt eine Differenz von 1.034.051 Videos, die in der regionalen Statistik nicht berücksichtigt werden.
Frage: Wie erklärt YouTube die Differenz von 1.034.051 Videos zwischen der Summe der "Entfernten Videos nach Land/Region" und der Gesamtzahl der entfernten Videos?
Manuelle Meldungen: Die Rolle von Priority Flaggern
Das Diagramm "Manuelle Meldung nach Art des Melders" zeigt eine nahezu vollständige Dominanz der Nutzermeldungen bei den manuellen Meldungen.
Für das zweite Quartal 2024 stammen 99,8 % der manuellen Meldungen (92.757.793) von Nutzern und lediglich 0,2 % (165.099) von Organisationen wie Priority Flaggern. Im ersten Quartal 2024 war die Verteilung mit 99,9 % (95.726.962) zu 0,1 % fast identisch.
Angesichts dieser Zahlen stellen sich mehrere Fragen:
Warum ist der weltweite Anteil der Meldungen durch Priority Flagger so gering? Auf Länderebene heruntergebrochen verringert sich die absolute Zahl der Meldungen nochmals.
Werden ausreichend Priority Flagger eingesetzt, die Landessprachen beherrschen und lokale Gegebenheiten einordnen können? Wie viele Priority Flagger sind das je Land/Region?
Gibt es Erkenntnisse dazu, wie viele Videos/Kanäle/Kommentare ein Priority Flagger jeweils durchschnittlich je Monat/je Quartal prüft und dann meldet oder nicht als Verstoß gegen die Richtlinien wertet?
Die Arbeit von Priority Flaggern ist sehr wichtig, da sie geschult sind, Inhalte kompetent zu bewerten. Ein stärkeres Engagement in diesem Bereich könnte die Moderation gezielter und präziser machen. YouTube sollte prüfen, ob hier mehr Ressourcen notwendig sind.
Fehlende Angaben in den Länderstatistiken zu Meldungen
YouTube zeigt ein Diagramm der Top 10-Länder mit den meisten Meldungen, jedoch fehlen hier detaillierte Zahlen, die eine konkrete Einordnung ermöglichen.
Fragen:
Warum wird bei den Meldungen nur die Top 10 der Länder angezeigt und nicht weitere Länder darüber hinaus, wie es bei der Länderstatistik zu den entfernten Videos der Fall ist?
Wie hoch ist die Anzahl manueller Meldungen der Priority Flagger aus und für Deutschland?
Unklarheiten in der Darstellung: Einzelmeldungen vs. Mehrfachmeldungen
Ein weiteres Problem betrifft die Darstellung der Zahlen in den Diagrammen. Laut Fließtext zur Statistik "Gemeldete Videos von allen Personengruppen" wurden 23.734.720 Videos gemeldet – dies scheint die Anzahl der gemeldeten einzelnen Videos ohne Mehrfachmeldungen zu sein.
Darunter wird jedoch die prozentuale Verteilung der manuellen Meldungen nach Personengruppen dargestellt. Bewegt man den Mauszeiger über die Diagramme, wird für das zweite Quartal 2024 die Anzahl von 92.757.793 manuellen Meldungen durch Nutzer angezeigt. Diese Zahl weicht erheblich von der Gesamtzahl gemeldeter Videos ab und deutet darauf hin, dass hier alle manuellen Meldungen (einschließlich Mehrfachmeldungen) berücksichtigt sind.
Fragen:
Handelt es sich bei der Zahl der 23.734.720 gemeldeten Videos um die Anzahl gemeldeter einzelner Videos ohne Mehrfachmeldungen?
Sind die 92.757.793 manuellen Meldungen die Summe aller manuellen Meldungen, einschließlich Mehrfachmeldungen?
Warum wird dies nicht jeweils klar im Fließtext und in der Beschriftung der Diagramme erläutert?
Wie plant YouTube, die Darstellung von Statistiken und Diagrammen transparenter und nutzerfreundlicher zu gestalten?
Eine klare Beschriftung und Differenzierung zwischen Einzel- und Mehrfachmeldungen würde die Lesbarkeit und Verständlichkeit erheblich verbessern.
Automatisierte Erkennung dominiert die Moderation
Im zweiten Quartal 2024 wurden insgesamt 8.497.876 Videos aufgrund von Richtlinienverstößen entfernt. Davon wurden beeindruckende 96,5 % (8.198.119 Videos) automatisiert erkannt und entfernt. Die weiteren Anteile verteilen sich wie folgt:
238.204 Videos (2,8 %) wurden aufgrund von Nutzermeldungen entfernt.
61.553 Videos (0,7 %) wurden aufgrund von Meldungen durch Organisationen wie Priority Flagger entfernt.
Die Zahlen zeigen, dass der überwältigende Großteil der Moderationsarbeit von automatisierten Systemen übernommen wird. Der Anteil der Videos, die zuerst durch Priority Flagger erkannt und daraufhin entfernt wurden, ist weltweit verschwindend gering. Auf Länderebene betrachtet, sinkt diese Zahl noch weiter.
Fragen dazu:
Sind genügend Priority Flagger aktiv, um potenziell problematische Inhalte effektiv zu prüfen?
Wie erklärt sich YouTube die erheblichen Unterschiede im Verhältnis zwischen automatisierter Erkennung und den Beiträgen der Priority Flagger?
Eine mögliche Erklärung könnte sein, dass Priority Flagger besonders gründlich arbeiten:
Qualität vor Quantität: Priority Flagger prüfen möglicherweise weniger Inhalte, dokumentieren diese aber besonders sorgfältig und detailliert.
Kapazitätsgrenzen: Menschliche Prüfer sind naturgemäß limitiert in der Anzahl der Inhalte, die sie pro Tag unter Einhaltung von Prüfstandards sichten können.
Zusammenhang zwischen manuellen Meldungen und Entfernungsgründen?
Ein Blick auf die Statistik "Entfernte Videos nach Entfernungsgrund" zeigt interessante Unterschiede bei den Hauptgründen für die Entfernung:
5.046.178 Videos (59,4 %) wurden zum Schutz von Kindern entfernt.
1.032.708 Videos (12,2 %) wegen schädlicher oder gefährlicher Inhalte.
646.591 Videos (7,6 %) aufgrund gewaltsamer oder grausamer Inhalte.
Im Vergleich dazu wurden weltweit lediglich:
163.000 Videos (1,9 %) wegen "hasserfüllter oder beleidigender Inhalte" entfernt.
104.200 Videos (1,2 %) wegen "Fehlinformationen".
Die relativ geringen Zahlen bei Videos, die aufgrund von Hassrede oder Fehlinformationen entfernt wurden, werfen die Frage auf, ob dies mit der niedrigen Anzahl von Meldungen durch Priority Flagger und Nutzer korreliert.
Warum ist der weltweite Anteil der Meldungen durch Priority Flagger, so gering?
Werden genügend Priority Flagger eingesetzt?
Werden genügend Priority Flagger in den einzelnen Ländern eingesetzt, die Landessprachen beherrschen und lokale Gegebenheiten einordnen können?
Gibt es einen Zusammenhang zwischen der niedrigen Anzahl von Meldungen durch Priority Flagger und Nutzer und den relativ geringen Zahlen von Videos, die wegen Hassrede oder Fehlinformationen entfernt wurden?
Frage zur Statistik: Keine manuellen Meldungen zu Fehlinformationen?
Ein weiteres auffälliges Detail betrifft die Statistik "Manuelle Meldungen nach Beschwerdegrund". In dieser Statistik wird der Grund "Fehlinformationen" überhaupt nicht aufgeführt. Dies wirft dringende Fragen auf, insbesondere da Fehlinformationen ein hochaktuelles und sensibles Thema sind.
Persönliche Beobachtung:
Ich selbst habe im letzten Jahr fast hundert Meldungen über das interne YouTube-Meldesystem eingereicht, von denen weit über die Hälfte aufgrund von Fehlinformationen erfolgten. Dass dieser Beschwerdegrund in der Statistik gar nicht auftaucht, ist daher umso verwunderlicher.
Frage an YouTube:
Warum wird "Fehlinformationen" in der Statistik "Manuelle Meldungen nach Beschwerdegrund" nicht angezeigt, obwohl Nutzer Inhalte mit diesem Grund melden können? Also Null Meldungen aufgrund “Fehlinformationen”?
Wie erklärt YouTube diesen Widerspruch zur realen Nutzung des Meldesystems durch die Community?
Fragen zur Moderation im Kontext von Großereignissen
1. Meldungen im Monatsverlauf
Können detaillierte Statistiken zu Meldungen im Zusammenhang mit Großereignissen (z. B. Europa- oder Landtagswahlen, Kommunalwahlen, Weltmeisterschaften, Olympia) bereitgestellt werden?
Aufschlüsselung nach:
Monat des Uploads bzw. Einreichens der Meldung.
Kategorien: Videos, Kanäle, Kommentare.
Herkunft der Meldungen: Nutzer, Priority Flagger/Trusted Flagger, automatische Erkennung.
Meldungsgründe: Hassrede, Fehlinformationen.
Können diese Statistiken weiter differenziert werden nach:
Regionen: Deutschland (IP-basiert) vs. weltweit.
Status der Meldungen:
Abgelehnte Meldungen bzw. Meldungen ohne Konsequenzen.
Inhalte, die entfernt wurden.
Inhalte, die trotz Meldung nicht entfernt wurden.
Inhalte, die gemeldet, aber nicht geprüft wurden/werden konnten.
Welche Kriterien führten in den jeweiligen Fällen zu diesen Entscheidungen?
2. Statistiken zu Hassrede und Fehlinformationen bei Großereignissen
Wie viele Meldungen zu Hassrede und Fehlinformationen wurden speziell im Umfeld von Großereignissen eingereicht?
Gibt es Unterschiede im Vergleich zu anderen Zeiträumen?
Werden Meldungen im Zusammenhang mit Großereignissen prioritär bearbeitet?
Falls ja, wie unterscheiden sich die Bearbeitungszeiten im Vergleich zu regulären Meldungen?
3. Untersuchung der Meldungsgründe
Welche Gründe führten bei Großereignissen am häufigsten zu Moderationsmaßnahmen oder zur Entfernung von Inhalten (z. B. Hassrede, Fehlinformationen, schädliche Inhalte)?
Wie viele Meldungen wurden für diese Gründe abgelehnt, und warum?
4. Rolle von Priority Flaggern
Wie viele Meldungen wurden während Großereignissen von Priority Flaggern oder Trusted Flaggern eingereicht?
Wie viele dieser Meldungen führten zur Entfernung von Inhalten?
Wie viele blieben ohne Konsequenzen?
Werden Priority Flagger gezielt auf die Beobachtung von Inhalten im Kontext gesellschaftlich relevanter Ereignisse wie Wahlen eingesetzt?
5. Vergleich 2023 vs. 2024
Gibt es signifikante Unterschiede bei der Anzahl und den Ergebnissen von Meldungen in den Jahren 2023 und 2024?
Können diese Daten nach den oben genannten Kategorien (Monat, Meldungsgrund, Inhaltstyp, Herkunft der Meldungen) differenziert dargestellt werden?
Vorschläge für verbesserte Transparenz
Spezifische Berichte zu Großereignissen: Es wäre hilfreich, wenn YouTube regelmäßig thematische Berichte veröffentlicht, die sich explizit mit moderationsrelevanten Aktivitäten während gesellschaftlich relevanter Ereignisse beschäftigen.
Darstellung abgelehnter oder unbearbeiteter Meldungen: Eine transparente Darstellung von Meldungen, die aus Kapazitätsgründen nicht geprüft wurden, könnte zu einer besseren Nachvollziehbarkeit der Moderationsaktivitäten beitragen.
Priorisierung von Großereignissen: Erläuterungen zu den internen Prozessen und Prioritäten bei der Bearbeitung von Inhalten im Zusammenhang mit gesellschaftlichen Großereignissen wären wünschenswert.
Fazit
Der Transparenzbericht zeigt, wie wichtig automatisierte Systeme für die Moderation auf YouTube sind. Doch gleichzeitig werfen die Zahlen viele Fragen auf, die nach einer Klärung verlangen – insbesondere zur Rolle der Priority Flagger, der Darstellung der Beschwerdegründe und den Unstimmigkeiten bei den Entfernungsgründen.
YouTube sollte die Darstellung seiner Statistiken nutzerfreundlicher gestalten und transparenter erklären, wie Zahlen erhoben und interpretiert werden. Eine stärkere Einbindung von Priority Flaggern könnte dazu beitragen, sensible Themen wie Hassrede und Fehlinformationen gezielter und effektiver zu adressieren.
YouTube, ich bin gespannt auf eure Antworten!
Quellen:
Kommentare
Kommentar veröffentlichen