Coronavirus: Fordern Sie Apps an, um gefälschte Covid-19-News-Buttons zu erhalten

Bildrechte
Getty Images

Soziale Netzwerke benötigen einen speziellen Button, um gefälschte Coronavirus-bezogene Beiträge zu kennzeichnen, so eine Interessenvertretung.

Die Kampagne zur Bekämpfung des digitalen Hasses (CCDH) sagte, die Apps hätten "einen Trick verpasst", um das Problem zu bekämpfen.

Der Aufruf fällt mit einer Studie zusammen, aus der hervorgeht, dass 46% der Erwachsenen, die das Internet nutzen, in Großbritannien in der ersten Woche nach der Sperrung des Landes falsche oder irreführende Informationen über das Virus gesehen haben.

Laut Ofcom stieg die Zahl der 18- bis 24-Jährigen auf 58%.

Der Kommunikationswächter sagte, der häufigste falsche Ratschlag in der Woche ab dem 23. März sei die Behauptung, dass das Trinken von mehr Wasser eine Infektion ausspülen könne.

Weit verbreitete Behauptungen, dass Covid-19 durch Gurgeln von Salzwasser oder Vermeiden von kaltem Essen und Trinken gelindert werden könnte, wurden ebenfalls häufig gesehen.

Der Wachhund beabsichtigt, jede Woche 2.000 Personen zu befragen, um das Problem zu verfolgen.

Am Mittwoch hatte der Digitalsekretär Oliver Dowden ein virtuelles Treffen mit Facebook, Twitter und dem Besitzer von YouTube, Google.

Während des Anrufs verpflichteten sich die Firmen:

  • Entwicklung weiterer technischer Lösungen zur Bekämpfung von Fehlinformationen und Desinformation auf Plattformen
  • wöchentliche Berichterstattung über verwandte Fehlinformationstrends
  • Verbesserung der Abdeckung außerhalb der Geschäftszeiten und der Rücklaufquoten bei schädlichen Fehlinformationen
  • Bereitstellung von Nachrichten für Benutzer zum Erkennen und Reagieren auf Fehlinformationen

"Handlungsbarriere"

Technologiefirmen haben in den letzten Tagen ihre Bemühungen zur Bekämpfung gefälschter Berichte verstärkt.

Dies beinhaltet WhatsApp, das die Anzahl der Chats begrenzt, an die Benutzer gleichzeitig beliebte Nachrichten senden können, und YouTube-Sperrvideos, die falsche Behauptungen über die Verknüpfung von 5G mit Covid-19 aufstellen.

Laut CCDH braucht die Öffentlichkeit jedoch einen einfacheren Weg, um Fehlinformationen über die Krankheit zu melden als derzeit.

Das Fehlen eines solchen dedizierten Knopfes stellt ein "Hindernis für Maßnahmen" dar, sagte der Geschäftsführer der Gruppe, Imran Ahmed, gegenüber der BBC und hielt die Benutzer davon ab, nach Optionen zu suchen, um beleidigende Beiträge zu melden.

Momentan:

  • Twitter Laut zwei Optionen eignen sich Coronavirus-Fehlinformationen – "verdächtig oder Spam" und "missbräuchlich oder schädlich". Wenn Sie jedoch auf eine klicken, wird der Benutzer aufgefordert, diese auf spezifischere Kategorien einzugrenzen, von denen keine mit Fehlinformationen oder Verschwörungstheorien übereinstimmt
  • Youtube schlägt vor, die Kategorie "schädliche gefährliche Handlungen" zu verwenden, die Optionen für Drogenmissbrauch und Selbstverletzung bietet, jedoch keine Fehlinformationen
  • Tick ​​Tack hat eine Spam-Kategorie, aber keine eindeutige Kategorie für Fehlinformationen
  • Facebook Es gibt zwar eine Kategorie "falsche Nachrichten" für Berichte, aber Herr Ahmed sagt, das sei "ganz anders als Fehlinformationen". Es ist auch ein politisch aufgeladener Begriff, sagt er, und "niemand weiß mehr, was es bedeutet"

Der CCDH-Chef ist auch besorgt darüber, dass Benutzer häufig aufgefordert werden, die gemeldeten Konten zu sperren oder stummzuschalten.

Das bedeutet "Sie sehen nicht die Realität, das heißt, sie könnten einen Beitrag löschen, aber sehr selten Konten löschen", sagte er.

Bildrechte
Getty Images

Der Abgeordnete Damian Collins hat kürzlich den Informationsdienst Infotagion eingerichtet, um Fehlinformationen über die Pandemie zu bekämpfen.

Er hat gefordert, dass die absichtliche Verbreitung von Fehlinformationen strafbar gemacht wird – und sagt, Facebook und andere soziale Netzwerke sollten gegen die Administratoren von Gruppen vorgehen, die die Beiträge enthalten.

"(Technologiefirmen) reagieren darauf, wenn es unmittelbar drohend ist, aber wenn es sich um andere Informationen handelt – wie Verschwörungstheorien -, dann entspricht dies nicht ihrem Test, ob ein Gegenstand entfernt werden sollte", sagte Collins, bevor YouTube härter wurde seine Politik in Bezug auf 5G.

"Es gibt nicht unbedingt ein generelles Verbot von Fehlinformationen über Covid-19."

Rassistische Beiträge

Das Reuters Institute for the Study of Journalism der Universität Oxford veröffentlichte Anfang der Woche eine eigene Studie zur Verbreitung von Online-Fehlinformationen über Coronaviren.

Es wurden 225 Stellen analysiert, die in den ersten drei Monaten des Jahres von professionellen Faktenprüfern als falsch oder irreführend eingestuft wurden.

Die häufigsten falschen Behauptungen betrafen die Reaktion der Behörden auf die Krise.

Die zweithäufigste Art betraf die Ausbreitung der Krankheit unter den Gemeinden, einschließlich Stellen, an denen bestimmte ethnische Gruppen beschuldigt wurden.

Die Studie fügte hinzu, dass die drei wichtigsten sozialen Netzwerke – Facebook, YouTube und Twitter – die meisten von unabhängigen Faktenprüfern gekennzeichneten Beiträge entfernt, gekennzeichnet oder andere Maßnahmen ergriffen hatten.

Aber es hieß, es gebe "erhebliche Unterschiede" bei der Behandlung der online verbliebenen.

Unbeschriftete Fehlinformationen

Live falsche Beiträge ohne Warnmeldung

Keines der von der BBC kontaktierten sozialen Netzwerke gab Pläne zur Einführung eines speziellen Coronavirus-Berichtstools bekannt.

Sie behaupteten jedoch, wesentliche Schritte zur Bekämpfung problematischer Coronavirus-Beiträge unternommen zu haben.

Twitter sagt, dass es die Hälfte der Tweets fängt, die gegen seine Regeln verstoßen, bevor jemand sie meldet – hat aber die Leute gebeten, dies weiterhin zu tun.

TikTok sagte, es konzentriere sich auf die Bereitstellung von Informationen aus maßgeblichen Quellen und verbiete ausdrücklich Fehlinformationen, die Menschen schaden könnten.

Facebook sagte, es entferne Inhalte über den Virus, die eindeutig von einer maßgeblichen Quelle entlarvt worden waren, priorisierte jedoch Beiträge, die Menschen direkten Schaden zufügen könnten.