Direkt zum Hauptbereich

Offene Fragen an YouTube und Google: Verantwortung und Transparenz im Umgang mit Hassrede und Fehlinformationen

YouTube ist heute nicht nur Unterhaltungsplattform, sondern für Millionen Menschen auch zentrale Informationsquelle. Doch die zunehmende Verbreitung von Desinformation und Hassrede – besonders bei sensiblen Themen wie Wahlen – gibt Anlass zur Sorge.

Mein jahrelanges Engagement gegen diese problematischen Inhalte und zahlreiche Kontaktversuche mit den Verantwortlichen bei Google und YouTube Deutschland führten bisher bestenfalls zu oberflächlichen Standardantworten oder wurden schlichtweg ignoriert. Die dringend notwendige inhaltliche Auseinandersetzung blieb aus.

An Ralf Bremer, Andreas Briese, Phillip Justus: Mit diesem offenen Fragenkatalog möchte ich einen konstruktiven Dialog anstoßen. Es ist Zeit für mehr Transparenz und konkrete Antworten von Google und YouTube Deutschland.

Fragen an YouTube und Google Deutschland:

  1. Texterkennung auf Thumbnails und Videoanalyse
    Kann YouTube den Text auf Thumbnails erkennen und in Bezug auf den Videotitel, die Videobeschreibung sowie das Transkript analysieren? Wird diese Analyse auch zur Identifikation potenziell problematischer oder hetzerischer Inhalte eingesetzt?

  2. Erkennung extremistisch codierter Emojis und Zahlenkombinationen
    Verfügt YouTube über eine Liste von Emojis, Zahlenkombinationen oder Symbolen, die oft als Codes für extremistische Aussagen verwendet werden (z.B. "18" für Adolf Hitler, "88" für den Hitlergruß)? Wird diese Liste auch im Kontext von Kanalnamen, Videobeschreibungen, Videotiteln, Thumbnails und Transkripten genutzt, um problematische Inhalte zu identifizieren?

  3. Umgehungserkennung durch Platzhalter in problematischen Begriffen
    Ist YouTube bekannt, dass problematische Begriffe häufig mit Platzhaltern versehen werden (z.B. "N@zi" oder "N*zischl*mpe"), um Erkennungssysteme zu umgehen? Wenn ja, weshalb ist es dennoch möglich, dass solche Inhalte veröffentlicht werden?

  4. Meldeverfahren und Moderationsrichtlinien bei problematischer Sprache
    Warum reagiert YouTube nicht auf Meldungen zu problematischen Begriffen wie "N*zischlmpe", "Migrantenschl*mpe" oder "H*rentochter" in Thumbnails, Titeln und Beschreibungen? Gelten solche Begriffe nach Ansicht von YouTube nicht als Richtlinienverstoß?

  5. Automatische Transkription und Erkennungsprobleme durch die KI
    Wie geht YouTube mit fehlerhaften Transkriptionen um, bei denen Begriffe durch die KI nicht korrekt erkannt werden (z.B. durch Dialekte, Betonungen)? Hat dies Einfluss darauf, ob fragwürdige Inhalte identifiziert werden?

  6. Meldeschwellen für Moderationseingriffe
    Gibt es eine bestimmte Anzahl an Meldungen, die erreicht werden muss, bevor YouTube auf Inhalte aufmerksam wird, prüft und moderiert? Falls ja, weshalb reicht eine einzige, fundierte und belegte Meldung nicht aus?

  7. Überprüfung von Timestamps und Videokontext
    Wenn ein Video mit einem bestimmten Timestamp gemeldet wird, überprüft YouTube ausschließlich diese Stelle oder auch den Kontext davor und danach? Falls ja, wie viel Zeit vor und nach der gemeldeten Stelle wird berücksichtigt?

  8. Methoden der Videoüberprüfung
    Erfolgt die Überprüfung von gemeldeten Videos durch KI oder durch menschliche Prüfer? Falls beide Methoden angewendet werden, in welcher Reihenfolge?

  9. Kriterien für eine manuelle Überprüfung
    Wird jede Meldung von einem menschlichen Prüfer überprüft? Falls nein, welche Kriterien müssen für eine manuelle Prüfung erfüllt sein?

  10. Timestamp-Einfluss auf die Prüfung
    Wird bei einer Meldung mit Timestamp das gesamte Video oder nur der spezifische Abschnitt um den Timestamp geprüft?

  11. Meldungen ohne Timestamp
    Wie erfolgt die Überprüfung eines Videos, wenn kein Timestamp angegeben ist und die Meldung auf 00:00 verweist?

  12. Einfluss des User-Kommentars bei Meldungen
    Inwiefern werden die Hinweise und Begründungen im Hinweistextfeld der Meldemaske, die der User bei einer Meldung angibt, in die Überprüfung einbezogen?

  13. Transparenz über Prüfungsergebnisse
    Warum informiert YouTube User nicht aktiv über das Ergebnis der Überprüfung eines gemeldeten Videos? Wieso müssen Nutzer die Ergebnisse selbst im Meldeverlauf nachschlagen?

  14. Begründungen bei Ablehnung von Meldungen
    Warum erhalten User, deren Meldungen abgelehnt wurden, keine konkrete Begründung von YouTube, z.B., warum in einem Video aus Sicht von YouTube keine Fehlinformationen über Wahlen vorliegen?

  15. Widerspruchsoption für Nutzer
    Warum gibt es keine Möglichkeit für Nutzer, gegen eine Ablehnung ihrer Meldung Widerspruch einzulegen?

  16. Trennung von Meldungen bei verschiedenen Timestamps
    Muss für jede problematische Stelle in einem Video eine separate Meldung eingereicht werden, um der Meldung mehr Gewicht zu verleihen und ausreichend Kontext zu liefern?

  17. Timestamp-Pflicht bei Meldungen
    Muss zwingend eine Timestamp angegeben werden, um eine Überprüfung zu ermöglichen?

  18. Reaktionszeit bei zeitkritischen Meldungen
    Warum reagiert YouTube nicht priorisiert auf Meldungen zu Videos mit nachweislich falschen Informationen zu Wahlen? Diese sind besonders zeitkritisch.

  19. Priorisierung von Wahlinformationen im Algorithmus
    Gibt es spezielle Algorithmen, die Fehlinformationen im Kontext von Wahlen priorisiert behandeln, insbesondere wenn solche Inhalte zeitkritisch und weit verbreitet sind?

  20. Dauer der Überprüfung bei Wahlinhalten
    Wie lange dauert der Überprüfungsprozess für gemeldete Videos im Durchschnitt, insbesondere bei Fehlinformationen zu Wahlen?

  21. Nachhaltige Entfernung von Wahl-Fehlinformationen
    Wie stellt YouTube sicher, dass Fehlinformationen zu Wahlen, die entfernt wurden, nicht erneut verbreitet werden?

  22. Empfehlungen bei gemeldeten Inhalten
    Welche Maßnahmen ergreift YouTube, damit problematische Inhalte, die gemeldet wurden, während der Prüfung nicht weiterhin empfohlen oder im Algorithmus bevorzugt werden?

  23. Benachrichtigung über Entfernung von Fehlinformationen
    Gibt es ein System, das YouTube-Nutzer darüber informiert, wenn ein Video mit Wahl-Fehlinformationen entfernt wurde?

  24. Konsequenzen für wiederholte Verstöße
    Welche Konsequenzen haben Nutzer und Kanäle, die wiederholt Fehlinformationen zu Wahlen verbreiten? Wird zwischen absichtlicher Täuschung und unbeabsichtigten Verstößen unterschieden?

  25. Zusammenarbeit mit externen Wahlbehörden
    Arbeitet YouTube mit externen Institutionen oder Wahlbehörden zusammen, um die Überprüfung und Entfernung von Fehlinformationen im Zusammenhang mit Wahlen effizienter zu gestalten?

  26. Echtzeitentfernung bei kritischen Inhalten
    Werden besonders schädliche Fehlinformationen zu Wahlen in Echtzeit entfernt, oder muss eine vollständige Prüfung abgewartet werden?

  27. Umgang mit grenzwertigen Inhalten
    Wie geht YouTube mit Inhalten um, die zwar keine offensichtlichen Fehlinformationen enthalten, aber das Vertrauen in demokratische Prozesse untergraben könnten?

  28. Schulungen für Wahl-Fehlinformationen
    Gibt es spezielle Schulungen für menschliche Prüfer, um Fehlinformationen im Kontext von Wahlen adäquat zu bewerten?

  29. Verhinderung der Verbreitung von Wahl-Fehlinformationen in anderen Kanälen
    Wie verhindert YouTube, dass durch Fehlinformationen manipulierte Videos in anderen Kanälen verbreitet werden?

  30. Erweiterung der Meldekategorien
    Was hält YouTube davon, die Meldegründe zu erweitern, z.B. durch Kategorien wie „Fehlinformationen – Wahlen“ oder „Fehlinformationen – Gesundheitsthemen“, um die Dringlichkeit bestimmter Meldungen klarer zu machen?

  31. Präzision der KI-Analyse
    Wie analysiert die KI gemeldete Inhalte? Wie wird sichergestellt, dass sie den Unterschied zwischen harmlosen und potenziell schädlichen Inhalten erkennt? Erkennt die KI zum Beispiel den folgenden realen Kommentar: "Wir brauchen ganz viele Pager"?

  32. Erkennung und Prävention wiederholter Inhalte
    Wie stellt YouTube sicher, dass ähnliche Inhalte, die gegen die Richtlinien verstoßen, ebenfalls erkannt und entfernt werden?

Abschließende Gedanken 

YouTube und Google tragen eine große Verantwortung, eine Plattform zu schaffen, die frei von Hassrede, Fehlinformationen und extremistischen Botschaften ist – besonders bei sensiblen Themen wie Wahlen. Mit diesem Fragenkatalog hoffe ich auf eine ehrliche und offene Reaktion von Seiten der Plattformverantwortlichen. Es wäre ein starkes Zeichen, wenn YouTube und Google zu diesen Fragen Stellung beziehen und Maßnahmen ergreifen, um für alle Nutzerinnen und Nutzer mehr Vertrauen und Sicherheit zu schaffen.

Liebe Leserinnen und Leser, wenn auch Ihr Euch eine verantwortungsbewusste und sichere Plattform wünscht, unterstützt gerne meinen Aufruf an YouTube und Google. Ich habe zu diesem Thema jeweils eine Petition bei Campact und innit gestartet, und Eure Unterstützung kann helfen, den Druck auf die Verantwortlichen zu erhöhen. Jeder Beitrag zählt, um für mehr Transparenz, Sicherheit und Verantwortung im Netz einzustehen! 

https://weact.campact.de/p/stopp-fake-news-youtube

https://innn.it/reclaimyoutube/

Lasst uns gemeinsam zeigen, dass uns eine respektvolle und vertrauenswürdige Online-Welt wichtig ist. Zusammen können wir eine Plattform fördern, die ein offenes, aber sicheres Umfeld für alle bietet.

Grüße, Axel

Kommentare

Beliebte Posts aus diesem Blog

AfD und BSW "säubern" unser Land: Alexander Raue und der Hass

In einem kürzlich veröffentlichten Video von Alexander Raue zur Regenbogenfahnen-Debatte in Neubrandenburg zeigt sich eine erschreckende Eskalation menschenfeindlicher Rhetorik. Eine Analyse der verwendeten Sprache offenbart, wie gezielt Hass geschürt und demokratiefeindliche Narrative verbreitet werden. Die Strategie der Spaltung Sprache der Vernichtung Besonders alarmierend ist die mehrfache Verwendung des Begriffs "säubern". Bereits im Videotitel und der Beschreibung wird von einer "Säuberung" gesprochen - ein Begriff, der historisch untrennbar mit der Verfolgung und Vernichtung von Minderheiten verbunden ist. Diese Wortwahl ist kein Zufall, sondern eine bewusste Strategie: Der Begriff impliziert, dass bestimmte Menschen oder Gruppen "Schmutz" seien, der entfernt werden müsse Er knüpft gezielt an die Sprache totalitärer Regime an Er bereitet den Boden für die Entmenschlichung der LGBTQ+-Community Konstruktion von Feindbildern Das Video arbeitet sy

So erkennst du rechtspopulistische Kanäle und Videos – Eine praktische Checkliste

Kennst du das? Du scrollst durch YouTube oder andere Plattformen und stolperst über Videos mit extrem reißerischen Titeln wie "Politiker ZERFETZT Gegner im Bundestag!" oder "UNFASSBAR! Das verschweigen uns die Medien!!!" Oft ist es jedoch gar nicht so leicht zu erkennen, ob es sich um seriöse Berichterstattung oder um rechtspopulistische Inhalte handelt. Deswegen habe ich eine ausführliche Checkliste zusammengestellt, die dir dabei helfen kann, problematische Videos schneller zu durchschauen. Die gute Nachricht: Es gibt typische Muster und Merkmale, die wie Warnsignale funktionieren. Dabei ist wichtig zu wissen: Ein einzelnes Merkmal muss noch nichts bedeuten - auch seriöse Kanäle nutzen manchmal zum Beispiel Emojis oder zugespitzte Formulierungen. Es geht um die Kombination und Häufung der Merkmale.  Wichtig: Diese Merkmale stammen aus meinen persönlichen Erfahrungen im Kampf gegen Fake News, Hass und Hetze im Internet, die ich über die Jahre gesammelt habe. Es ha