Facebook ordnet Länder für die Moderation von Inhalten in wichtige Stufen ein, wobei einige Nationen wenig bis gar keine direkte Aufsicht erhalten, heißt es in dem Bericht

Facebook-Chef Mark Zuckerberg.

  • Facebook wird nicht in jedem Land gleich moderiert, zeigen neue Dokumente.
  • Berichten zufolge teilt Facebook die Länder in Stufen ein, um zu entscheiden, wie die Moderation pro Land gehandhabt wird.
  • Den USA, Indien und Brasilien wird höchste Priorität eingeräumt, während der Großteil der Welt nur wenige Ressourcen erhält.

Mit fast 3 Milliarden Menschen, die seinen Dienst nutzen, muss Facebook einige wichtige Entscheidungen treffen, wenn es um die Moderation von Inhalten geht.

Anstatt Ressourcen gleichmäßig auf der ganzen Welt einzusetzen, entscheiden Unternehmensleiter Berichten zufolge, worauf sie die meisten Ressourcen konzentrieren – und haben sich wiederholt auf einige Länder konzentriert, in denen Facebook am beliebtesten ist.

In einem Beispiel aus internen Facebook-Dokumenten rezensiert von The Verge, traf sich Ende 2019 eine Gruppe bei Facebook, um zu diskutieren, wie man die Moderationsressourcen vor mehreren wichtigen Wahlen weltweit am besten bündeln kann. Die Dokumente waren Teil der Facebook Papers, einer Reihe von Berichten, die von einem Konsortium von 17 US-Nachrichtenorganisationen veröffentlicht wurden, die angaben, durchgesickerte interne Dokumente überprüft zu haben, die die Whistleblowerin Frances Haugen erhalten hatte.

Die Vereinigten Staaten, Brasilien und Indien erhielten alle die sogenannte „Tier-Zero“-Betrachtung – die meisten Ressourcen und die proaktivste, kontinuierliche Aufsicht. Länder wie Israel, Iran, Italien und Deutschland besetzten laut dem Bericht alle einen Schritt nach unten auf “Stufe eins”.

Laut The Verge werden 30 Ländern durch das stufenbasierte Moderationssystem von Facebook zusätzliche Ressourcen bereitgestellt, während der Rest der Welt eine vergleichsweise dürftige Aufsicht hat. Die einzige Möglichkeit für Facebook, Probleme für Länder in Stufe drei zu sehen, wäre, dass Moderatoren sie direkt aufdecken, heißt es in den Dokumenten.

Facebook wird seit Jahren wegen Problemen mit der Moderation kritisiert, zuletzt wegen der Verwendung des Dienstes als Werkzeug bei der Organisation des versuchten Aufstands am 6. Januar.

Capitol Riot Trump Schilder
Trump-Anhänger stoßen mit Polizei und Sicherheitskräften zusammen, als am 6. Januar Menschen versuchen, das US-Kapitol zu stürmen.

Im Jahr 2018 gab Facebook zu, dass es nicht genug getan hat, um die Verbreitung von Hassreden und Gewalt in Myanmar zu stoppen.

“Ich denke, es ist klar, dass die Leute versucht haben, unsere Tools zu benutzen, um echten Schaden anzustiften”, sagte Facebook-Chef Mark Zuckerberg sagte Vox im April 2018.

Schlimmer noch: In Ländern wie Myanmar, wo Facebook die wichtigste Form des Internets ist, werden diese Probleme verstärkt.

“In Myanmar wird alles über Facebook erledigt”, sagte der Myanmar-Ermittler der Vereinten Nationen, Yanghee Lee. sagte dem UN-Menschenrechtsrat im März 2018. “Die ultranationalistischen Buddhisten haben ihre eigenen Facebooks und stacheln wirklich zu viel Gewalt und viel Hass gegen die Rohingya oder andere ethnische Minderheiten auf … ursprünglich beabsichtigt.”

Facebook seinerseits sagte, es sei mit Moderationsressourcen flexibler als in den angegebenen Dokumenten.

“In einer Krise werden wir bestimmen, welche Art von Unterstützung und Teams wir einem bestimmten Land oder einer bestimmten Sprache widmen müssen und wie lange wir sie an Ort und Stelle halten müssen”, sagt Miranda Sissons, Direktorin für Menschenrechtspolitik bei Facebook und internationale strategische Reaktion Regisseurin Nicole Isaac schrieb in einem Blogbeitrag am Montagmorgen auf den Bericht reagiert.

Unabhängig davon gab ein Facebook-Sprecher Insider die folgende Erklärung ab, als er um einen Kommentar gebeten wurde:

„Wir haben engagierte Teams, die daran arbeiten, Missbrauch auf unserer Plattform in Ländern zu stoppen, in denen ein erhöhtes Konflikt- und Gewaltrisiko besteht. Wir haben auch globale Teams mit Muttersprachlern, die Inhalte in über 70 Sprachen überprüfen, zusammen mit Experten für humanitäre und Menschenrechtsfragen. Wir haben bei der Bewältigung schwieriger Herausforderungen Fortschritte gemacht – wie der Entwicklung von Hassreden – und neue Wege geschaffen, damit wir schnell auf auftretende Probleme reagieren können. Wir wissen, dass diese Herausforderungen real sind, und wir sind stolz auf die Arbeit, die wir bisher geleistet haben.”

Hast du einen Tipp? Kontaktieren Sie den Insider-Senior-Korrespondenten Ben Gilbert per E-Mail ([email protected]), oder Twitter-DM (@realbengilbert). Wir können Quellen anonym halten. Verwenden Sie ein nicht arbeitsfähiges Gerät, um zu erreichen. Bitte nur PR-Pitches per E-Mail.

Lesen Sie den Originalartikel auf Business Insider


source site