Das Vorgehen von YouTube gegen QAnon funktioniert nicht

Die rechtsextreme Gruppe QAnon hat in den letzten Wochen die Aufmerksamkeit der Öffentlichkeit auf sich gezogen, weil sie Social-Media-Plattformen manövrieren kann, um Fehlinformationen zu verbreiten und virale Aufmerksamkeit für ihre Verschwörungstheorien zu erzeugen.

Social-Media-Plattformen wie Twitter und TikTok haben Maßnahmen gegen die Gruppe ergriffen, nachdem lange widerlegte Verschwörungstheorien wie #PizzaGate neue Aufmerksamkeit erregt, Konten gesperrt und die Anzeige der beliebten Hashtags bei der Suche deaktiviert haben. Obwohl sich beide Plattformen als fruchtbarer Boden für die Gruppe erwiesen haben, blüht QAnon seit Jahren auf YouTube - trotz der Investitionen des Unternehmens in deren Moderation.

Jetzt versucht die Videoplattform zu verhindern, dass QAnon-Videos in den Empfehlungen der Nutzer erscheinen. Ein Test mit digitalen Trends ergab jedoch, dass die Videos zur Verschwörungstheorie immer noch an prominenten Stellen auf der YouTube-Startseite erscheinen.

QAnon-Unterstützer mit Q-Flag Scott Olson / Getty Images

QAnon-Anhänger glauben an eine Reihe widerlegter Verschwörungstheorien, die Ende 2016 auf 4chan- und 8chan-Imageboards entstanden sind. Die Gruppe glaubt, dass eine Figur namens „Q“, die behauptet, Teil der Trump-Administration zu sein, Meldungen über den Krieg von Präsident Donald Trump veröffentlicht gegen eine "Deep State" Verschwörung. Die Gruppe ist seit 2016 auf YouTube stark gewachsen, da der auf Engagement basierende Algorithmus QAnon-Videos bewirbt.

"QAnon hat sich zunächst auf YouTube durchgesetzt", sagte Will Partin, ein Research-Analyst am Data & Society Research Institute, der die Gruppe seit 2017 untersucht. "Es wurde von YouTubers aufgegriffen, die die Verschwörungsbeine wirklich gaben, und infolgedessen." , verbreitete es wirklich und machte die Arbeit, es mit anderen Dingen zu verbinden, die bereits in der Luft waren “unter Konservativen.

"Man kann niemanden davon abhalten, aktiv danach zu suchen"

Dank der Natur von YouTube selbst erwies sich die Plattform als der erste Ort, an dem Langform-Pseudodokumentationen und Talkshows, die Hinweise oder „Brotkrumen“ entschlüsseln, die von „Q“ fallen gelassen wurden, gedeihen. Diejenigen, die sich für QAnon-Theorien interessieren, könnten leicht andere Benutzer finden, die zusätzliche Videos im Kommentarbereich oder über die Empfehlungsalgorithmen von YouTube empfehlen - eine Funktion, die von Kritikern unter Beschuss genommen wurde, um die Zuschauer auf einfache Weise zu „radikalisieren“.

Wenn Sie jetzt "QAnon" in die Suchleiste von YouTube eingeben, werden auf Ihrem Bildschirm "maßgebliche Quellen" wie Nachrichtenorganisationen und Experten angezeigt - ein Teil des Plans von YouTube, sachliche Inhalte zur Bekämpfung von Fehlinformationen bereitzustellen. YouTube bietet nun auch Textfelder und Informationstafeln, die auf Quellen von Drittanbietern verweisen. Digital Trends stellte fest, dass YouTube unter verwandten Videos einen Link zum Wikipedia-Artikel über QAnon bereitstellt.

Youtube

YouTube gab bekannt, dass seit der Einführung neuer Richtlinien zur Moderation von Inhalten im Januar die Anzahl der Aufrufe von QAnon-Inhalten aufgrund von Videoempfehlungen um 70% gesenkt wurde. Da YouTube eine Videoplattform-Website und keine Website für soziale Netzwerke ist, erfolgt die Moderation auf Video-zu-Video-Basis und nicht nach Konto. Laut einem YouTube-Sprecher wurden die Systeme der Plattform angepasst, um das Ranking für QAnon-Inhalte in der Seitenleiste mit Empfehlungen zu senken, selbst wenn Sie ähnliche Videos ansehen.

Digital Trends stellte jedoch fest, dass YouTube nach dem Ansehen eines halben Dutzend QAnon-bezogener Videos auf der Plattform mindestens drei Videos mit QAnon-bezogenen Verschwörungen auf der Registerkarte „Alle Empfehlungen“ auf der Startseite enthielt. In einem empfohlenen Video wurde die Verschwörung um die chemische Verbindung Adrenochrom erwähnt, die innerhalb der QAnon-Gruppen weit verbreitet ist und von Elite-Hollywood-Persönlichkeiten durch das Töten von Kindern erhalten wurde. Sie hatte über 1 Million Aufrufe.

Ein Vertreter von YouTube lehnte es ab, sich zu dieser Geschichte zu äußern.

Laut Partin basiert die Art und Weise, wie QAnon-Inhalte auf YouTube angezeigt werden, nicht auf den Videos, die den Nutzern empfohlen werden, sondern auf dem Inhalt der QAnon-bezogenen Videos selbst. QAnon-Influencer rufen häufig andere in einem Video aus oder leiten die Zuschauer auf andere Seiten, unabhängig davon, wie YouTube QAnon-Tags oder -Videos moderiert. Partin sagte jedoch, dass es einige QAnon-Tags gibt, die so dunkel sind, dass es YouTube unmöglich ist, Suchergebnisse mit sachlichen Inhalten aus seriösen Quellen zu füllen.

"An diesem Punkt kann man es nicht algorithmisch verstecken, man kann niemanden davon abhalten, es aktiv zu suchen", sagte er.

Partin sagte, YouTube sei einst der „Schlüsselpunkt“ für einen Nutzer gewesen, um mit QAnon-bezogenen Inhalten vertraut zu werden. Jetzt erfolgt der größte Teil der Rekrutierung auf Facebook - wo private QAnon-Gruppen auf Hunderttausende anwachsen können und besonders schwer zu moderieren sind.

Laut der New York Times plant Facebook Berichten zufolge einen ähnlichen Schritt, um die Gruppe zu moderieren, und tritt dabei in die Fußstapfen von Twitter und TikTok.

"Wenn Plattformen QAnon verbieten, tun sie oft alles gleichzeitig, um zahlenmäßig stark zu sein", sagte Partin. "Aber es ist wirklich schwierig, eine Politik in Bezug auf QAnon zu entwickeln, da vieles davon nur reguläres konservatives Wahlmaterial ist."

Partin sagte, er hoffe, dass die Menschen die Gefahren von QAnon-bezogenen Inhalten in sozialen Medien verstehen, nicht, wie weit verbreitet oder wie tief ihre Verschwörungen geglaubt werden, sondern das Risiko, auf die Schaltfläche "Teilen" selbst zu klicken.

"Es ist unmöglich, die Absichten von jemandem zu kennen, aber die Absicht ist nicht so wichtig", sagte er. "Es ist mir egal, ob sie das tun oder nicht, sie handeln so, wie sie es tun, und sie verbreiten diesen Inhalt und diese Glaubwürdigkeit, unabhängig von der Absicht dahinter."