Parteinahme, Meinungsverschiedenheiten bei Mitarbeitern und „Leichen“: Facebooks Kampf gegen Fehlinformationen und Hassreden in Indien

Die Erkundungsmission, die von einem der Forscher in einem internen Dokument von CNN beschrieben wurde, fand zu einem wichtigen Zeitpunkt für das Land und für die Aktivitäten von Facebook darin statt. Indiens nationale Wahlen, die größten der Welt, waren nur noch monate entfernt – und Facebook bereitete sich bereits auf potenzielle Probleme vor.

Vor diesem Hintergrund befragten die Forscher von Facebook über zwei Dutzend Nutzer und fanden einige zugrunde liegende Probleme, die die Bemühungen zur Eindämmung von Fehlinformationen in Indien möglicherweise erschweren.

“Die Benutzer haben ihre Motivation zur Unterstützung ihrer politischen Parteien ausdrücklich angegeben”, schrieben die Forscher in einem internen Forschungsbericht, der von CNN eingesehen wurde. “Sie waren auch skeptisch gegenüber Experten als vertrauenswürdigen Quellen. Experten wurden als anfällig für verdächtige Ziele und Motivationen angesehen.”

Eine von den Forschern interviewte Person wurde mit den Worten zitiert: “Als Unterstützer glaubt man, was immer seine Seite sagt.” Ein anderer Befragter, der sich auf Indiens beliebten, aber umstrittenen Premierminister Narendra Modi bezog, sagte: “Wenn ich 50 Modi-Benachrichtigungen erhalte, werde ich sie alle teilen.”

Der indische Premierminister Narendra Modi ist ein produktiver Nutzer von Social Media.
Das Dokument ist Teil der Offenlegungen an die Securities and Exchange Commission und wurde dem Kongress in redigierter Form von der Rechtsberaterin der Facebook-Whistleblowerin Frances Haugen zur Verfügung gestellt. Ein Konsortium von 17 US-Nachrichtenorganisationen, darunter CNN, hat die redigierten Versionen überprüft vom Kongress erhalten.
Die Gespräche enthüllen einige der gleichen gesellschaftlichen Probleme in den Vereinigten Staaten, die manchmal sowohl als Produkte algorithmischer Social-Media-Feeds als auch als erschwerende Faktoren für deren Verbesserung angesehen werden. Dazu gehören nationalistische Parteien, aufrührerische Politiker, polarisierte Gemeinschaften und ein gewisses Misstrauen gegenüber Experten. Da waren weit verbreitete Bedenken weltweit, dass Facebook hat vertiefte politische Spaltungen und dass seine Bemühungen, Informationen auf Fakten zu überprüfen, die Menschen oft dazu bringen, ihre Überzeugungen zu verdoppeln, von denen einige in dem Forschungsdokument widergespiegelt wurden. (Die meisten indischen Interviewpartner sagten jedoch auch, dass sie wollten, dass Facebook ihnen hilft, Fehlinformationen auf der Plattform zu identifizieren.)

Auch in Indien hatte Facebook mit zwei grundlegenden Problemen zu kämpfen, die es in den USA, wo das Unternehmen seinen Sitz hat, nicht hatte: das Verständnis der vielen Landessprachen und die Bekämpfung des Misstrauens gegenüber dem Auftreten als Außenseiter.

In Indien ist die englische Alphabetisierung geschätzt auf etwa 10 %, sind die automatisierten Systeme von Facebook nicht für die meisten der 22 offiziell anerkannten Sprachen des Landes gerüstet, und seine Teams verpassen oft den entscheidenden lokalen Kontext, eine Tatsache, die in . hervorgehoben wird andere interne Dokumente und teilweise von den Fehlinformationsforschern anerkannt.

“Wir hatten ernsthafte Sprachprobleme”, schrieben die Forscher und fügten hinzu, dass die Facebook-Profile der von ihnen befragten Benutzer meistens auf Englisch eingestellt waren, “obwohl sie anerkennen, wie sehr dies ihr Verständnis behindert und ihr Vertrauen beeinflusst.”

Einige indische Benutzer, die von Forschern befragt wurden, sagten auch, dass sie Facebook nicht zutrauten, ihnen genaue Informationen über lokale Angelegenheiten bereitzustellen. “Facebook wurde als ein großes internationales Unternehmen angesehen, das relativ langsam war, die besten Informationen zu regionalen Nachrichten zu kommunizieren”, schrieben die Forscher.

Facebook-Sprecher Andy Stone sagte gegenüber CNN Business, dass die Studie „Teil einer umfassenderen Anstrengung“ sei, um zu verstehen, wie indische Nutzer auf Warnhinweise zu Fehlinformationen auf Inhalten reagierten, die von den externen Faktenprüfern von Facebook gekennzeichnet wurden.

“Diese Arbeit hat zu einer Änderung geführt, die wir vorgenommen haben”, sagte Stone. “Im Oktober 2019 haben wir in den USA und kurz darauf global expandiert, damit begonnen, prominentere Labels zu verwenden.”

Stone sagte, dass Facebook keine Daten zur Inhaltsüberprüfung nach Ländern aufschlüsselt, aber er sagte, dass das Unternehmen über 15.000 Menschen hat, die weltweit Inhalte überprüfen, „einschließlich in 20 indischen Sprachen“. Das Unternehmen kooperiere derzeit mit 10 unabhängigen Organisationen zur Überprüfung von Fakten in Indien, fügte er hinzu.

Warnungen vor Hassreden und Fehlinformationen in Facebooks größtem Markt

Indien ist ein entscheidender Markt für Facebook. Mit mehr als 400 Millionen Nutzer Auf den verschiedenen Plattformen des Unternehmens ist das Land die größte Einzelzielgruppe von Facebook.
Indien hat mehr als 800 Millionen Internetnutzer und ungefähr eine halbe Milliarde Menschen, die noch online gehen müssen, was es zu einem Kernstück von Facebooks Bemühungen um globales Wachstum macht. Die Expansion von Facebook im Land umfasst a 5,7 Milliarden US-Dollar Investition letztes Jahr eine Partnerschaft mit einem Unternehmen für digitale Technologie eingegangen, das dem reichsten Mann Indiens gehört.

Aber die schiere Größe und Vielfalt des Landes, zusammen mit einem Anstieg der antimuslimischen Stimmung unter Modis rechtsgerichteter hindu-nationalistischer Regierung, haben Facebooks Bemühungen um die Sicherheit der Menschen verstärkt und dienten als Paradebeispiel für seine Fehltritte in volatileren Entwicklungsländern.

Indiens Hunderte Millionen neuer Internetnutzer haben es zum Schlüssel zur globalen Expansion von Facebook gemacht.
Die von CNN und anderen Nachrichtenagenturen erhaltenen Dokumente, bekannt als Die Facebook-Papiere, zeigen die Forscher des Unternehmens und andere Mitarbeiter, die wiederholt Probleme mit Fehlinformationen und Hassreden in Indien melden.

Zum Beispiel haben Facebook-Forscher Anfang des Jahres intern einen Bericht aus dem indischen Bundesstaat Assam veröffentlicht, in Zusammenarbeit mit lokalen Forschern der Organisation Global Voices vor den Landtagswahlen im April. Es zeigte sich besorgt über “ethnische, religiöse und sprachliche Angstmacherei”, die sich gegen “Ziele, die als ‘bengalische Einwanderer’ wahrgenommen werden” richteten, die die Grenze aus dem benachbarten Bangladesch überquerten.

Die lokalen Forscher fanden auf Facebook Posts gegen bengalische Sprecher in Assam mit “vielen rassistischen Kommentaren, darunter einige, die dazu aufriefen, hinduistische Bengalen ‘zurück’ nach Bangladesch zu schicken oder zu töten”.

“Bengalisch sprechende Muslime haben es in Assam am schlimmsten”, sagten die lokalen Forscher.

Die verschiedenen Plattformen von Facebook haben in Indien monatlich mehr als 400 Millionen Nutzer.

Facebook-Forscher berichteten über weitere antimuslimische Hassreden und Fehlinformationen in ganz Indien. In anderen Dokumenten wurde “eine Reihe von entmenschlichenden Posts” erwähnt, in denen Muslime mit “Schweinen” und “Hunden” verglichen wurden, und falsche Behauptungen, dass der “Koran Männer aufruft, ihre weiblichen Familienmitglieder zu vergewaltigen”.

Das Unternehmen hatte auch Probleme mit der Sprache in diesen Beiträgen. Forscher stellten fest, dass “unser Mangel an Hindi- und Bengali-Klassifikatoren bedeutet, dass ein Großteil dieser Inhalte nie gekennzeichnet oder Maßnahmen ergriffen wird”.

Einige der Dokumente wurden zuvor von der Wallstreet Journal und andere Nachrichten Steckdosen.

“Der Abstieg eines indischen Testbenutzers in ein Meer polarisierender, nationalistischer Botschaften”

Die Bemühungen von Facebook um die Wahlen 2019 schienen sich weitgehend auszuzahlen. In einer Mitteilung vom Mai 2019 begrüßten Facebook-Forscher die „40 Teams und fast 300 Personen“, die für eine „überraschend ruhige, ereignislose Wahlperiode“ sorgten.

Facebook hat zwei „Break-Glass-Maßnahmen“ eingeführt, um Fehlinformationen zu stoppen, und laut der Mitteilung über 65.000 Inhalte wegen Verstoßes gegen die Wählerunterdrückungsrichtlinien der Plattform entfernt. Die Forscher stellten jedoch auch einige Lücken fest, unter anderem bei Instagram, das zu diesem Zeitpunkt keine Kategorie zur Meldung von Fehlinformationen hatte und vom Faktenprüftool von Facebook nicht unterstützt wurde.

Darüber hinaus ist das zugrunde liegende Potenzial für Facebooks Plattformen in Indien eine reale Spaltung und Schaden verursachen vor der Wahl und dauerte noch lange danach – ebenso wie interne Bedenken darüber.

In einer Forschungsnotiz vom Februar 2019 mit dem Titel “An Indian Test User’s Descent Into a Sea of ​​Polarizing, Nationalistic Messages” wurde ein Testkonto beschrieben, das von Facebook-Forschern eingerichtet wurde und den empfohlenen Seiten und Gruppen des Unternehmens folgte. Innerhalb von drei Wochen füllte sich der Feed des Accounts mit „einem nahezu konstanten Sperrfeuer von polarisierenden nationalistischen Inhalten, Fehlinformationen, Gewalt und Blut“.

Viele der Gruppen hatten harmlose Namen, aber Forscher sagten, dass sie nach einem Terroranschlag vom 14. Februar in der umstrittenen Region Kaschmir zwischen den beiden Ländern begannen, schädliche Inhalte und Fehlinformationen zu verbreiten, insbesondere gegen Bürger des indischen Nachbarn und Rivalen Pakistan.

“Ich habe in den letzten 3 Wochen mehr Bilder von Toten gesehen als in meinem ganzen Leben”, schrieb einer der Forscher.

Der Umgang von Facebook mit Hassreden in Indien ist selbst unter den eigenen Mitarbeitern im Land umstritten. Im August 2020, a Journalbericht Angeblich habe Facebook es versäumt, gegen Hassreden eines Mitglieds der indischen Regierungspartei vorzugehen, was zu Forderungen nach Veränderungen bei vielen seiner Mitarbeiter führte. (Das Unternehmen sagte dem Journal zu der Zeit, als seine Führer “gegen antimuslimischen Hass und Bigotterie sind und die Gelegenheit begrüßen, das Gespräch über diese Themen fortzusetzen.”) In einem internen Kommentarthread Tage nach dem ersten Bericht befragten mehrere Mitarbeiter des Unternehmens teilweise, seine Untätigkeit gegenüber Politikern, die Fehlinformationen und Hassreden verbreiten.

„Da es nur eine begrenzte Zahl von Politikern gibt, finde ich es unvorstellbar, dass wir nicht einmal eine grundlegende Schlüsselworterkennung eingerichtet haben, um so etwas zu erfassen“, kommentierte ein Mitarbeiter. “Schließlich kann man als Unternehmen nicht stolz sein, wenn wir weiterhin solche Barbarei in unserem Netzwerk aufblühen lassen.”

.
source site