Facebook zahlt 52 Millionen US-Dollar an Content-Moderatoren über PTBS

Bildrechte
Getty Images

Bildbeschreibung

Facebook-Moderatoren arbeiten in ihren Büros in Austin, Texas

Facebook hat zugestimmt, Content-Moderatoren 52 Millionen US-Dollar (42 Millionen Pfund) als Entschädigung für psychische Gesundheitsprobleme zu zahlen, die bei der Arbeit entstanden sind.

Die Vereinbarung regelt eine Sammelklage der Moderatoren, wie erstmals von berichtet Der Rand.

Facebook sagte, es benutze sowohl Menschen als auch künstliche Intelligenz (KI), um Beiträge zu erkennen, die gegen Richtlinien verstoßen.

Der Social-Media-Riese hat den Einsatz von KI verstärkt, um schädliche Inhalte während der Coronavirus-Sperrung zu entfernen.

Im Jahr 2018 verklagte eine Gruppe von US-Moderatoren, die von Drittunternehmen beauftragt wurden, Inhalte zu überprüfen, Facebook, weil sie kein sicheres Arbeitsumfeld geschaffen hatten.

Die Moderatoren gaben an, dass die Überprüfung gewalttätiger und grafischer Bilder – manchmal von Vergewaltigung und Selbstmord – für das soziale Netzwerk zur Entwicklung einer posttraumatischen Belastungsstörung (PTBS) geführt habe.

Die Vereinbarung, die am Freitag in Kalifornien vor Gericht eingereicht wurde, regelt diese Klage. Ein Richter wird den Deal voraussichtlich noch in diesem Jahr unterzeichnen.

Die Vereinbarung gilt für Moderatoren, die von 2015 bis jetzt in Kalifornien, Arizona, Texas und Florida gearbeitet haben. Jeder frühere und aktuelle Moderator erhält mindestens 1.000 US-Dollar sowie zusätzliche Mittel, wenn bei ihm PTBS oder verwandte Erkrankungen diagnostiziert werden. Rund 11.250 Moderatoren haben Anspruch auf Entschädigung.

Facebook erklärte sich außerdem bereit, neue Tools einzuführen, mit denen die Auswirkungen des Anzeigens schädlicher Inhalte verringert werden sollen.

Ein Sprecher von Facebook sagte, das Unternehmen sei "verpflichtet, (Moderatoren) durch diese Einigung und in Zukunft zusätzliche Unterstützung zu bieten".

Moderation der Sperrung

Im Januar begann Accenture, ein Drittanbieter, der Moderatoren für Social-Media-Plattformen wie Facebook und YouTube anstellt, Mitarbeiter, ein Formular zu unterschreiben Sie gaben zu, dass sie verstanden hatten, dass der Job zu PTBS führen könnte.

Die Vereinbarung kommt zustande, da Facebook nach Möglichkeiten sucht, mehr seiner menschlichen Prüfer wieder online zu bringen, nachdem die Sperrung des Coronavirus beendet ist.

Bildrechte
NurPhoto

Bildbeschreibung

Facebook hat den Einsatz von KI verstärkt, um irreführende Informationen über den Ausbruch des Coronavirus zu erkennen

Das Unternehmen sagte, dass viele menschliche Prüfer von zu Hause aus arbeiteten, aber einige Arten von Inhalten in dieser Umgebung nicht sicher überprüft werden konnten. Moderatoren, die Inhalte von zu Hause aus nicht überprüfen konnten, wurden bezahlt, arbeiten aber nicht.

Um den Verlust menschlicher Rezensenten auszugleichen, hat Facebook den Einsatz von KI verstärkt, um stattdessen den Inhalt zu moderieren.

In seiner fünften Bericht zur Durchsetzung von Gemeinschaftsstandards Der am Dienstag veröffentlichte Social-Media-Riese sagte, AI habe dazu beigetragen, 90% des Inhalts von Hassreden proaktiv zu erkennen.

KI war auch entscheidend für die Erkennung schädlicher Beiträge zum Coronavirus. Facebook gab im April bekannt, dass es in der Lage war, rund 50 Millionen Posts mit irreführenden Informationen zur Pandemie zu warnen.

Die Technologie hat jedoch manchmal immer noch Schwierigkeiten, schädliche Inhalte in Videobildern zu erkennen. Menschliche Moderatoren können die Nuancen oder das Wortspiel in Memes oder Videoclips häufig besser erkennen, sodass sie schädliche Inhalte leichter erkennen können.

Facebook entwickelt derzeit ein neuronales Netzwerk namens SimSearchNet, das nahezu identische Kopien von Bildern erkennen kann, die falsche oder irreführende Informationen enthalten.

Laut Mike Schroepfer, Chief Technology Officer des Social-Media-Riesen, werden sich die menschlichen Rezensenten auf "neue Fälle von Fehlinformationen" konzentrieren, anstatt auf "nahezu identische Variationen" von Bildern zu schauen, die sie bereits überprüft haben.