Facebook gibt zu, dass die Website wegen Fehlinformationen fest verdrahtet erscheint, Memo enthüllt | Facebook

Laut einer neuen Welle interner Dokumente, die zeigten, dass das Social-Media-Unternehmen Schwierigkeiten hatte, Hassreden in den Entwicklungsländern einzudämmen, und zögerte, rechte US-Nachrichtenorganisationen zu zensieren, hat Facebook zugegeben, dass Kernteile seiner Plattform fest verdrahtet scheinen, um Fehlinformationen und spaltende Inhalte zu verbreiten.

Ein internes Memo warnte Facebooks „Kernproduktmechanik“ oder seine grundlegende Funktionsweise, dass Hassreden und Fehlinformationen auf der Plattform wachsen ließen. Das Memo fügte hinzu, dass die Grundfunktionen von Facebook „nicht neutral“ seien.

„Wir haben auch überzeugende Beweise dafür, dass unsere Kernproduktmechaniken, wie Vitalität, Empfehlungen und Optimierung für das Engagement, ein wesentlicher Teil davon sind, warum diese Art von Sprache auf der Plattform gedeiht“, heißt es in dem Memo von 2019.

In Bezug auf die Sicherheitsabteilung von Facebook fügte das Dokument hinzu: „Wenn Integrität bei diesen Problemen aus technischen (Präzisions-) oder philosophischen Gründen eine Haltung einnimmt, dann ist das Nettoergebnis, dass Facebook als Ganzes aktiv ( wenn nicht unbedingt bewusst), diese Art von Aktivitäten zu fördern. Die Mechanik unserer Plattform ist nicht neutral.“

Das Dokument wurde von der New York Times am Montag als Teil einer Welle von Geschichten eines US-geführten Konsortiums von Nachrichtenorganisationen. Die NYT-Geschichten und andere basierten auf Offenlegungen gegenüber der Securities and Exchange Commission – der US-Finanzaufsichtsbehörde – und wurden dem Kongress in redigierter Form von der ehemaligen Facebook-Mitarbeiterin und dem Rechtsbeistand der Whistleblowerin Frances Haugen zur Verfügung gestellt.

Die Dokumente wurden auch vom Wall Street Journal beschafft, das seit letztem Monat eine Reihe von schädlichen Enthüllungen über Facebook veröffentlicht hat.

Andere Geschichten, die am Montag im Rahmen der Facebook Papers veröffentlicht wurden, bezogen sich auf die Unfähigkeit von Facebook, Hassreden und schädliche Inhalte außerhalb der USA zu bekämpfen. Laut mehreren Berichten der Partner von Facebook Papers ist die Aufstachelung zu Hass und Desinformation bei nicht englischsprachigen Nutzern wesentlich schlimmer. Ein Großteil der Moderationsinfrastruktur von Facebook ist für andere Sprachen als Englisch und seine Software nicht ausreichend ausgestattet hat Schwierigkeiten, bestimmte Dialekte des Arabischen zu verstehen, berichtete die Associated Press (AP).

Die algorithmische Moderationssoftware des Unternehmens könnte identifizieren nur 0,2% des schädlichen Materials in Afghanistan, laut einem internen Bericht, der Anfang dieses Jahres von Politico veröffentlicht wurde. Der Rest des schädlichen Materials musste von Mitarbeitern markiert werden, obwohl dem Unternehmen Moderatoren fehlten, die Paschtu oder Dari, die Hauptsprachen des Landes, sprachen. Werkzeuge zur Meldung von schädlichem Material im Land waren nur auf Englisch verfügbar, obwohl es in Afghanistan nicht weit verbreitet war.

Laut AP vor zwei Jahren Apple droht, Facebook und Instagram aus seinem App Store zu entfernen über Bedenken, dass die Plattformen für den Handel mit Hausangestellten verwendet werden, einem Sektor, der ein hohes Risiko für Missbrauch und menschliche Sklaverei darstellt. Die Drohung wurde fallen gelassen, nachdem Facebook Details seiner Versuche zur Lösung des Problems mitgeteilt hatte.

An anderer Stelle in den Zeitungen ein Dokument, das von der Financial Times zeigte einen Facebook-Mitarbeiter, der behauptete, das Public-Policy-Team von Facebook habe Entscheidungen zum Entfernen von Beiträgen blockiert, „wenn sie sehen, dass sie mächtigen politischen Akteuren schaden könnten“. In dem Memo heißt es, dass Schritte zum Entfernen von Inhalten von Wiederholungstätern gegen die Richtlinien von Facebook, wie z.

„In den USA scheint es, als ob Interventionen fast ausschließlich im Namen konservativer Verlage erfolgten“, heißt es in dem Memo mit Verweis auf Unternehmen wie Breitbart und PragerU.

Ein Facebook-Sprecher sagte: „Im Mittelpunkt dieser Geschichten steht eine Prämisse, die falsch ist. Ja, wir sind ein Unternehmen und wir machen Profit, aber die Vorstellung, dass wir dies auf Kosten der Sicherheit oder des Wohlergehens der Menschen tun, missversteht, wo unsere eigenen kommerziellen Interessen liegen. Die Wahrheit ist, dass wir 13 Milliarden US-Dollar investiert haben und über 40.000 Mitarbeiter für eine Aufgabe haben: die Sicherheit der Menschen auf Facebook zu gewährleisten.“

source site