Addendum
loading...
YouTube und die Corona-Verschwörung
28. April 2020 Coronavirus Lesezeit 8 min
Videos mit Verschwörungstheorien haben auf YouTube mehr als 18 Millionen Aufrufe erhalten. Addendum hat Inhalt und Verbreitung von über 1.000 Videos zum Coronavirus analysiert.

Auf YouTube finden Videos zu Verschwörungstheorien ein Millionenpublikum: Wer tief in die Blase vordringt, findet Videos, die vor einer neuen Weltordnung warnen oder Viren per se die Existenz absprechen. Manche Theorien verlassen den virtuellen Raum: In Großbritannien und in den Niederlanden haben Unbekannte kürzlich mehrere 5G-Handymasten in Brand gesteckt, die sie für die Ausbreitung des Coronavirus verantwortlich machen.

Im Zuge einer Datenanalyse hat Addendum 1.049 deutschsprachige Videos zum Coronavirus gesammelt und kategorisiert. Als konspirativ wurden Inhalte betrachtet, in denen eine Verschwörung zwischen mächtigen Menschen, Firmen und/oder Organisation hinter der Coronavirus-Pandemie vermutet wird, die – so der Tenor dieser Videos – das Virus absichtlich als gefährlicher darstellen, als es ist, um Geld, Macht und Kontrolle zu erlangen. Manche Ersteller dieser Videos gehen weiter und behaupten, das Virus wurde in die Welt gesetzt, um eine neue Weltordnung aufzubauen. Dabei fällt häufig der Name des Microsoft-Mitbegründers Bill Gates, der das Feindbild vieler Impfgegner ist und bereits 2015 vor einer Pandemie gewarnt hatte. Daneben wurden Videos als konspirativ gewertet, die den 5G-Ausbau hinter der Pandemie vermuten, oder die Existenz von Viren per se leugnen. Videos, die Spekulationen über den Ursprung des Virus mit einem chinesischen Labor in Verbindungen bringen – etwa durch lasche Sicherheitsmaßnahmen – wurden nicht in die Kategorie aufgenommen, da es Indizien gibt, die Raum für Spekulationen eröffnen, auch wenn sie vom „Wuhan Institute of Virology“ dementiert werden. 

Kommentare
Kommentieren

Als jemand, der sich für vermehrte Impfungen einsetzt und diese auch in ärmeren Ländern finanziert, wird ihm vorgeworfen Menschen Mikrochips zu injizieren oder die Pandemie geplant und ausgelöst zu haben. Eng verbunden damit ist die Dämonisierung der Weltgesundheitsorganisation (WHO), die zu einem hohen Anteil von der „Bill and Melinda Gates Stiftung“ finanziert wird

Kommentare
Kommentieren

Wie reagiert YouTube?

YouTube wurde in der Vergangenheit häufig für die Verbreitung von Desinformation kritisiert. Zwar kommt es nun häufiger zu Löschungen bei der Verbreitung von Hassbotschaften, aber YouTube-Mutter Alphabet – vormals Google – verfolgt weiterhin eine liberalere Löschpolitik als beispielsweise Facebook. Neben einer Verlinkung auf die Website der WHO durch ein Banner unter jedem Video, das sich mit dem Coronavirus befasst, ist für YouTube die Durchsetzung sogenannter „Shadow-Bans“ üblich. Dabei werden Kanäle als nicht vertrauenswürdig eingestuft. In der Folge sind sie über die Suchfunktion schwieriger aufzufinden. Das zeigt Wirkung: Bei der Suche nach dem Arzt Wolfgang Wodarg, dessen Behauptungen heftig kritisiert wurden, werden reichweitenstarke Videos gar nicht angezeigt oder in den Suchergebnissen weit nach unten gereiht, während Videos, die sich gegen die Aussagen des ehemaligen SPD-Politikers positionieren, nach oben gereiht werden. Dies war kurz nach dem Upload noch nicht der Fall.

Früher Terror, heute Kritik

Die Strategie verfolgt YouTube seit 2017 und wurde ursprünglich angewendet, um gegen Terrorismus vorzugehen. Das trifft jedoch auch Videos, die die Maßnahmen der Behörden auf legitime Weise kritisieren. So war ein Video von Martin Haditsch, einem Linzer Facharzt für Mikrobiologie, Virologie und Infektionskrankheiten mit über 300.000 Aufrufen infolgedessen ebenso kaum mehr auf YouTube oder Google auffindbar. Erst im Laufe der letzten Woche wurde es wieder nach oben gereiht. Das ist insofern problematisch, als YouTube dabei nicht nach klaren Kriterien vorgeht und auf automatisierte Klassifizierungsverfahren setzt, die offenbar falsch-positive Ergebnisse liefern.

Kommentare
Kommentieren

YouTube hält in seinen Richtlinien fest, dass Inhalte, die „zu Gewalt oder Hass gegen Einzelpersonen oder Gruppen aufrufen, gelöscht werden“. Folgende Merkmale sind dazu ausschlaggebend:

  • Alter
  • Gesellschaftsklasse
  • Behinderung
  • Ethnische Herkunft
  • Geschlechtsidentität und -ausdruck
  • Nationalität
  • Rasse
  • Einwanderungsstatus
  • Religion
  • Geschlecht
  • Sexuelle Orientierung
  • Opfer von schwerwiegenden Gewaltereignissen und deren Angehörige
  • Veteranenstatus

Behauptungen, die Wolfgang Wodarg in Interviews trifft:

  • Es gebe nur eine Pandemie, weil getestet wird. Ohne Tests würde man die Verbreitung des Virus nicht bemerken. Die überfüllten Krankenhäuser in Italien, Frankreich und der USA begründeter er mit dem medialen „Hype“.
  • In den Anfängen der Epidemie verwies er auf geringe Sterbezahlen in unterschiedlichen Ländern im Vergleich zu den Vorjahren und schloss damit auf eine niedrige Mortalitätsrate des Coronavirus. Inzwischen ist ein deutlicher Anstieg der Toten bei stark betroffenen Ländern zu verzeichnen, trotz der Maßnahmen.
  • SARS-CoV-2 sei wie alle anderen Viren in der Familie Coronaviren und damit ungefährlich.
  • Das Coronavirus ist nur so gefährlich wie die Grippe, ungeachtet der Existenz von Medikamente gegen das Grippevirus, die schwere Verläufe mildern, oder der vorherrschenden Grundimmunität in der Bevölkerung, die die Ansteckungsrate senkt.
  • Die Pharmafirmen, denen er großen Einfluss in die WHO nachsagt, hätten ein Interesse am Überschätzen der Corona-Pandemie. Daraus schließt er eine absichtliche Panikmache.

Bemüht, aber weitgehend wirkungslos

Trotzdem gehen die Maßnahmen der Videoplattform ins Leere: Zum einen greifen diese meist erst, nachdem das Video bereits viral gegangen ist, und zum anderen umgehen die Benutzer die Regelung durch mehrmaliges Hochladen auf verschiedenen Kanälen. Die Ersteller der Videos rufen dazu auch teilweise aktiv auf. Anstelle der Originalvideos, die zurückgereiht werden, sind Kopien dieser Videos zu finden. Bei gelöschten Videos, die nicht den Richtlinien entsprechen, geht YouTube dagegen entschiedener vor und verhindert das erneute Hochladen mittels automatischer Bilderkennung.

YouTube empfiehlt konspirative Videos

Das hat auch Auswirkungen auf den Empfehlungsalgorithmus von YouTube, der am Rand eines jeden Videos andere Videos verlinkt, um den Nutzer auf der Seite zu halten. Um zu verstehen, wie dieser Algorithmus funktioniert, haben wir von den 177 konspirativen Videos die ersten 20 empfohlenen Videos extrahiert und deren Kanäle kategorisiert. Da dies eine Anzahl von fast 600 Kanälen betreffen würde, haben wir nur jene Videos in Kategorien eingeteilt, die am öftesten vorgeschlagen wurden. Das deckt 74 Prozent aller Videos ab. Das Ergebnis: Landet man bei einem konspirativen Video – beispielsweise durch einen Link über WhatsApp – sind 12 Prozent der empfohlenen Videos ebenso konspirativ.

Trotzdem werden auch häufig Videos, die gängigen konspirativen Theorien widersprechen, verlinkt. Dazu zählt beispielsweise ein virales Video von Terra X, in dem ZDF-Moderator Harald Lesch gängigen Argumenten – zumeist aufgeworfen von Wolfgang Wodarg – widerspricht. In 27 Prozent der Fälle wird von einem Video mit konspirativem Inhalt ein Video von Terra X empfohlen, was bedeutet, dass die Gegenmaßnahme, die YouTube seit 2017 auf die Suchfunktion anwendet nun auch bei den Empfehlungen Anwendung findet. Die häufig aufgestellte These, dass YouTube-Nutzer in eine widerspruchsfreie Gegenöffentlichkeit gezogen werden, ist also nicht belegbar.

Kommentare
Kommentieren

Als viral haben wir Videos mit mehr als 300.000 Aufrufen definiert.

Die Community hält dagegen

Die Bemühungen von YouTube – vom „Shadow Ban“ über das stärkere Empfehlen von „Mainstream-Medien“ für das Publikum alternativer und verschwörungstheoretischer Inhalte – werden aber unterwandert. Unter zahlreichen Videos sind in den Kommentaren lange Listen mit Links zu konspirativen Videos zu finden. Ähnliche Kommentare mit Links finden sich auch bei Videos traditioneller Medien. Erhalten sie viele positive Bewertungen, werden sie bevorzugt behandelt und nach oben gereiht – für maximale Reichweite. Außerdem haben sehr viele YouTuber, die konspirative Inhalte verbreiten, einen Telegram-Kanal. Grund dafür ist, dass die Verbindung zur Community auch dann hält, wenn ihr Account von YouTube gesperrt wird, oder einzelne Videos gelöscht werden. Kurz gesagt: Die Blase sorgt selbst für ihre Radikalisierung. 

Kommentare
Kommentieren

Telegram ist eine Messenger-App wie WhatsApp, die ebenso über eine Kanalfunktionalität verfügt. Das heißt, dass ein Sender (Influencer oder Medium) vielen Empfängern eine Chatnachricht schicken kann. Empfänger können diese Nachrichten in Folge dessen kommentieren.

Methodik

Datensammlung
Für unsere Analyse haben wir Videos im Schneeballsystem gesammelt. Dafür haben wir hunderte YouTube-Links, die im Spektrum der neuen Rechten zirkulieren, gespeichert. Von diesen YouTube-Videos haben wir die Kommentare verarbeitet und wieder YouTube-Links gefunden. Zudem haben wir die YouTube-Suche bemüht, um auch „normale“ Videos zu erfassen. Um die automatisierten Anfragen an die YouTube-API zu stellen, hat Addendum ein Projekt zur Analyse von rechtsextremen YouTuber von der niederländischen Zeitung „De Correspondent“ genutzt und modifiziert. Die Daten wurden im Laufe der letzten vier Wochen gesammelt und zwischen 20. und 22. April zum letzten Mal im Bezug auf die Anzahl der Kommentare und Aufrufe aktualisiert.

Da Videovorschläge von Google unter anderem vom persönlichen Videoverlauf abhängig sind, haben wir auch hierbei die YouTube-API benutzt. Von dieser ist anzunehmen, dass Videos unabhängig vom Verlauf zurückgegeben werden und sie daher weniger verzerrend ist. Das modelliert einen Benutzer, der noch kein einziges YouTube-Video gesehen hat und dessen Empfehlungen nicht durch die persönliche Historie angereichert wurde. Um die Annahme zu untermauern, haben wir die empfohlenen Videos der API mit denen gegengecheckt, die wir beim Aufrufen des Videos mit dem Tor-Browser erhalten haben. Tor verschleiert die Herkunft der Anfrage, damit Google keine personalisierten Vorschläge geben kann, und liefert schließlich nahezu gleiche Empfehlungen in etwas unterschiedlicher Reihenfolge. Dabei ist anzumerken, dass bei auch mehrmaligem Aufruf eines Videos über Tor leicht unterschiedliche Ergebnisse zurückgeliefert werden. 

Netzwerkanalyse
Aufgrund der vielen Verbindungen und Punkte haben wir aus Performancegründen nur Videos anzeigen lassen, die mehr als 10.000 Aufrufe besitzen und zumindest eine Linie zu einem anderen Punkt besitzt. Außerdem wird eine Linie erst dann angezeigt, wenn sich mehr als 15 Benutzer, die einen Kommentar verfasst haben, überschneiden.

Kategorisierung
In weiterer Folge wurden die dazugehörigen Kanäle, auf denen die Videos veröffentlicht wurden, kategorisiert. Grundsätzlich sind nur Aussagen, die mit Bezug auf das Thema Corona fallen, für die Klassifikation ausschlaggebend. Folglich werden auch Kanäle, die anderweitige verschwörungstheoretische Inhalte verbreiten, jedoch nicht zum Thema Corona, nicht als konspirativ gewertet. Abschließend sei angemerkt, dass die Grenze oft fließend verläuft, vor allem bei Kanälen, die Zuwanderung ablehnen. Beispielsweise wird oft von  „Systemmedien“ gesprochen, die koordiniert Propaganda verbreiten würden.  Der Begriff ist in dieser Community so weit verbreitet, dass dies nicht für die Einteilung in die konspirative Kategorie ausreicht. Abschließend hier noch einmal eine Liste an Inhalten, die als konspirativ gekennzeichnet wurden:

  • Verbreitung von Inhalten der QAnon-Verschwörungstheorie
  • Reptiloide als Fabelwesen seien Teil einer Weltverschwörung
  • 5G sei Auslöser/Verstärker des Coronavirus
  • Bill Gates, George Soros, die Rothschilds stünden hinter der Ausbreitung oder dem Hype um den Coronavirus
  • eine neue Weltordnung würde im Zuge der Coronavirus-Pandemie durch eine Elite implementiert
  • das Coronavirus sei geschaffen worden, um Zwangsimpfungen durchzusetzen
  • der Crash der Wirtschaft sei geplant und das Coronavirus nur der Vorwand
  • Viren an sich oder SARS-CoV-2 würden nicht existieren
Kommentare
Kommentieren

QAnon ist ein anonyme Person oder Personengruppe die im Internet rechtsextreme Verschwörungstheorien verbreiten und „geheime“ Information über einen vermeintlichen Kampf Donald Trumps gegen den sogenannten „Deep-State“ – den tiefen Staat – der die eigentliche Macht in der USA besäße, veröffentlicht. Verfechter der Verschwörungstheorie beschuldigen Politiker und Promis Kinder auszubeuten und zu töten.

Mehr zum Thema
loading...