„Game of Whac-a-Mole“: Warum russische Desinformation in den sozialen Medien immer noch Amok läuft | Sozialen Medien

Während der Krieg in der Ukraine weiter tobt, baut Russland eine seiner mächtigsten Waffen aus: Desinformation. Social-Media-Unternehmen bemühen sich, darauf zu reagieren.

Falsche Behauptungen über die Invasion wurden von Benutzern in Russland sowie von offiziellen staatlichen Medienberichten verbreitet. Russland stellt sich häufig als unschuldiges Opfer dar und hat Desinformationen verbreitet, einschließlich der USA versorgte biologische Waffen in die Ukraine (denunziert vom Weißen Haus als „Verschwörungstheorie“) und Opfer eines Angriffs auf ein ukrainisches Krankenhaus waren bezahlte Schauspieler.

Als Reaktion darauf haben Unternehmen wie Meta, YouTube und Twitter Wellen neuer Maßnahmen angekündigt, die durch den Druck der ukrainischen Regierung, der führenden Politiker der Welt und der Öffentlichkeit vorangetrieben wurden.

Experten sagen jedoch, dass die Reaktion der Technologiebranche willkürlich war und es ihr an der fehlt Reichweite und Umfang ausgeklügelte Desinformationskampagnen zu bekämpfen. Und selbst wenn Richtlinien existieren, befürchten Beobachter, dass sie schlecht und uneinheitlich durchgesetzt werden.

„Im Großen und Ganzen haben Plattformen auf die Herausforderung staatlich unterstützter Desinformationskampagnen reagiert, indem sie ein vergebliches Spiel von Whac-a-Mole gespielt haben“, sagte Evan Greer, stellvertretender Direktor von Fight for the Future, einer gemeinnützigen Gruppe für digitale Rechte .

Technologieunternehmen haben in einigen Fällen Fehlinformationen als staatlich gefördert oder potenziell falsch gekennzeichnet, anstatt sie zu entfernen, oder sie haben einzelne Konten gesperrt, anstatt umfassendere Maßnahmen gegen Fehl- und Desinformationen zu ergreifen.

Wenn sie gehandelt haben, war es oft zu wenig, zu spät – YouTube zum Beispiel endlich gehandelt am Freitag gegen staatlich geförderte Desinformation nach wochenlangem Druck von Menschenrechtsaktivisten, aber nicht bevor diese Inhalte weit verbreitet wurden.

Undurchsichtige und widersprüchliche Richtlinien

Eines der jüngsten Beispiele für diesen spontanen Ansatz war die überraschende Entscheidung von Meta, Ausnahmen von seiner langjährigen Regel gegen Aufrufe zu Gewalt zu machen und Benutzern auf Instagram und Facebook in 12 osteuropäischen und westasiatischen Ländern zu erlauben russischen Soldaten den Tod zuzurufen. Nach einiger Verwirrung stellte das Unternehmen später klar, dass Benutzer immer noch nicht den Tod von Wladimir Putin oder anderen Führern fordern können.

Für viele unterstrich die Episode, wie undurchsichtig die Plattformen waren, wenn es um die Entscheidungsfindung in Bezug auf Russlandpolitik ging.

Und es sind nicht nur neue Politiken, denen es an Zusammenhalt gefehlt hat. Facebook, Twitter und YouTube hatten bereits Regeln zum Kennzeichnen staatlich geförderter Inhalte, aber Berichten zufolge werden diese Richtlinien oft schlecht durchgesetzt, sodass weit verbreitete Posts mit Regierungspropaganda durch das Raster fallen.

Eine vom Center for Countering Digital Hate veröffentlichte Studie untersuchte eine Stichprobe von 3.593 kürzlich von russischen staatlichen Nachrichtenquellen veröffentlichten Artikeln und stellte fest, dass Facebook 91 % der Beiträge nicht als staatlich gesponsert kennzeichnete.

YouTube seinerseits hat seine Bemühungen verstärkt, gegen staatlich geförderte Inhalte vorzugehen, und mehr als 1.000 Kanäle und 15.000 Videos entfernt. Aber der Schritt erfolgte Wochen, nachdem Befürworter das Unternehmen dazu aufgefordert hatten und nachdem Videos, die Desinformationen verbreiteten, Tausende von Aufrufen erzielten.

Die Biowaffen-Theorie hat sich als besondere Schwachstelle für die Plattform erwiesen. YouTube hat es nicht nur versäumt, Videos zu entfernen, die diese Theorien verbreiten, eine Studie aus Medienangelegenheiten für Amerika gefundenaber es hat auch durch monetarisierte Kanäle davon profitiert.

„Trotz ihrer erklärten Politik kennzeichnen viele dieser Plattformen Desinformation und Propaganda nicht angemessen, und das ist ein großes Problem“, sagte Heidi Beirich, Expertin für Rechtsextremismus beim gemeinnützigen Global Project Against Hate and Extremism.

Die Wurzel des Problems liegt darin, dass das Kerngeschäftsmodell dieser Plattformen sie ideal für Manipulation und Missbrauch macht, sagte Greer.

„Anstatt eine aggressivere Zensur auf Plattformebene zu fordern, sollten wir uns auf die Monopolmacht und die Art und Weise konzentrieren, wie große Technologieplattformen konzipiert sind.“

Mit anderen Worten, solange diese Plattformen Engagement über alles stellen, gibt es wenig Anreiz, gegen die Lügen und sensationellen Inhalte vorzugehen, die eine unverhältnismäßig große Menge an Traffic generieren.

Frances Haugen sagte dem Kongress: „Es gibt keinen Willen an der Spitze, dafür zu sorgen, dass diese Systeme ausreichend sicher betrieben werden.“ Foto: Rex/Shutterstock

Frances Haugen, die ehemalige Facebook-Mitarbeiterin, die zur Whistleblowerin wurde, sagte dies in ihrer Aussage vor dem Kongress im Oktober 2021 und stellte fest, dass „an der Spitze kein Wille besteht, dafür zu sorgen, dass diese Systeme angemessen sicher betrieben werden“. Sie fügte hinzu: „Bis wir ein Gegengewicht einbringen, werden diese Dinge im Interesse der Aktionäre und nicht im öffentlichen Interesse betrieben.“

TikTok wird als Fehlinformationsvektor „übersehen“.

Während Facebook, Twitter und YouTube zunehmend unter Druck stehen, gegen Fehlinformationen vorzugehen, hat sich TikTok zu einer neuen und oft übersehenen Grenze entwickelt.

Als relativ junge Plattform hat TikTok ein schnelles Wachstum und wenig Regulierung erlebt. Forscher sagen, dass sie seit Beginn der Invasion in der Ukraine gesehen haben, wie schnell Fehlinformationen auf der Plattform geteilt wurden.

„TikTok soll es durch sein Design einfach machen, Videos, Bilder und Töne zusammenzufügen, und das ist ein nützliches Werkzeug für diejenigen, die versuchen, Desinformation zu verbreiten“, sagte Cindy Otis, Desinformationsexpertin und Autorin.

Einige Beweise deuten darauf hin, dass Desinformation möglicherweise von Russland koordiniert wird. Eine Studie, veröffentlicht von Media Matters for America am 11. Märzzeigte, wie mehr als 180 russische Influencer auf der Plattform an einer konzertierten Propagandakampagne teilgenommen hatten, um die Online-Unterstützung für Russlands Krieg zu fördern, und Hunderte von Posts mit dem Hashtag #RussianLivesMatter teilten.

TikTok war so zentral für den Konflikt, dass die Biden-Regierung kürzlich TikTok-Influencer ins Weiße Haus eingeladen hat, um sie über die Realitäten des Krieges zu informieren und sie in den Kampf gegen Desinformation einzubeziehen.

Tick ​​Tack abschalten seine Dienste in Russland vor mehr als einer Woche, um Maßnahmen des Kremls zu vermeiden, aber einige Influencer dort scheinen trotz des Verbots zu posten.

Eine Sprecherin des Unternehmens sagte, es habe Richtlinien zur Bekämpfung von Fehlinformationen und sagte, als Reaktion auf die Ukraine habe das Unternehmen die Einführung seiner staatlichen Medienrichtlinie beschleunigt, die Etiketten für von Russland kontrollierte Medienkonten anwendet.

„Wir reagieren weiterhin mit verstärkten Sicherheitsressourcen auf den Krieg in der Ukraine, um aufkommende Bedrohungen zu erkennen und schädliche Fehlinformationen zu beseitigen“, sagte Sprecherin Jamie Favazza. „Wir arbeiten auch mit unabhängigen Organisationen zur Überprüfung von Fakten zusammen, um unsere Bemühungen zu unterstützen, TikTok dabei zu helfen, ein sicherer und authentischer Ort zu bleiben.“

Fehlinformationen über den Anstieg innerhalb Russlands

Russlands Reaktion auf das Vorgehen der Technologieplattformen war schnell und vergeltend, wobei das Land den Zugang seiner Bürger blockierte oder einschränkte Netflix, Tiktok, Instagram, Facebook und Apple. Das Land hat auch externe Nachrichtenagenturen zensiert.

Dies wiederum hat das Informationsmonopol des russischen Staates verstärkt, eine alarmierende Entwicklung in einem Land, in dem abweichende Meinungen und unvoreingenommene Nachrichten bereits bedroht waren.

Eine Situation, die es in anderen digital abgeschotteten Ländern schon lange gibt, mit gravierenden Folgen. Experten befürchten, dass eine russische Schließung von Nachrichtenagenturen und sozialen Plattformen, so unvollkommen sie auch sein mögen, könnte Menschen weiter daran hindern, sich gegen die Staatsmacht zu organisieren oder Menschenrechtsverletzungen zu bekämpfen.

„Bald werden Millionen gewöhnlicher Russen von zuverlässigen Informationen abgeschnitten, ihrer alltäglichen Möglichkeiten, sich mit Familie und Freunden zu verbinden, beraubt und daran gehindert, sich zu äußern“, twitterte Nick Clegg, Präsident für globale Angelegenheiten bei Facebooks Muttergesellschaft Meta.

China zum Beispiel hat lang in der Lage war, die Erzählung über seine Behandlung der Uiguren zu kontrollieren, die Regierungen, einschließlich der USA, als Völkermord bezeichnet haben. Social-Media-Unternehmen wurde vorgeworfen, die Menschenrechtsverletzungen indirekt zu unterstützen, indem sie zuließen, dass Fehlinformationen über sie auf ihren Plattformen geteilt werden – und in einigen Fällen sogar Werbegelder von den hinter den Aktionen stehenden Regierungen angenommen haben.

„Wir haben alle weggeschaut mit dem, was Social-Media-Unternehmen in China ermöglichen, und jetzt sehen wir, wie es wieder passiert“, sagte Beirich.

„Die große Frage für uns alle ist: Was sind die Grundwerte, die wir in Bezug auf Informationen haben sollten?“ Sie sagte. „Das zeigt, warum wir ein geschütztes, freies und faires Internet wollen.“


source site-27