Vor diesem Hintergrund befragten die Forscher von Facebook über zwei Dutzend Nutzer und fanden einige zugrunde liegende Probleme, die die Bemühungen zur Eindämmung von Fehlinformationen in Indien möglicherweise erschweren.
“Die Benutzer haben ihre Motivation zur Unterstützung ihrer politischen Parteien ausdrücklich angegeben”, schrieben die Forscher in einem internen Forschungsbericht, der von CNN eingesehen wurde. “Sie waren auch skeptisch gegenüber Experten als vertrauenswürdigen Quellen. Experten wurden als anfällig für verdächtige Ziele und Motivationen angesehen.”
Eine von den Forschern interviewte Person wurde mit den Worten zitiert: “Als Unterstützer glaubt man, was immer seine Seite sagt.” Ein anderer Befragter, der sich auf Indiens beliebten, aber umstrittenen Premierminister Narendra Modi bezog, sagte: “Wenn ich 50 Modi-Benachrichtigungen erhalte, werde ich sie alle teilen.”
Auch in Indien hatte Facebook mit zwei grundlegenden Problemen zu kämpfen, die es in den USA, wo das Unternehmen seinen Sitz hat, nicht hatte: das Verständnis der vielen Landessprachen und die Bekämpfung des Misstrauens gegenüber dem Auftreten als Außenseiter.
“Wir hatten ernsthafte Sprachprobleme”, schrieben die Forscher und fügten hinzu, dass die Facebook-Profile der von ihnen befragten Benutzer meistens auf Englisch eingestellt waren, “obwohl sie anerkennen, wie sehr dies ihr Verständnis behindert und ihr Vertrauen beeinflusst.”
Einige indische Benutzer, die von Forschern befragt wurden, sagten auch, dass sie Facebook nicht zutrauten, ihnen genaue Informationen über lokale Angelegenheiten bereitzustellen. “Facebook wurde als ein großes internationales Unternehmen angesehen, das relativ langsam war, die besten Informationen zu regionalen Nachrichten zu kommunizieren”, schrieben die Forscher.
Facebook-Sprecher Andy Stone sagte gegenüber CNN Business, dass die Studie „Teil einer umfassenderen Anstrengung“ sei, um zu verstehen, wie indische Nutzer auf Warnhinweise zu Fehlinformationen auf Inhalten reagierten, die von den externen Faktenprüfern von Facebook gekennzeichnet wurden.
“Diese Arbeit hat zu einer Änderung geführt, die wir vorgenommen haben”, sagte Stone. “Im Oktober 2019 haben wir in den USA und kurz darauf global expandiert, damit begonnen, prominentere Labels zu verwenden.”
Stone sagte, dass Facebook keine Daten zur Inhaltsüberprüfung nach Ländern aufschlüsselt, aber er sagte, dass das Unternehmen über 15.000 Menschen hat, die weltweit Inhalte überprüfen, „einschließlich in 20 indischen Sprachen“. Das Unternehmen kooperiere derzeit mit 10 unabhängigen Organisationen zur Überprüfung von Fakten in Indien, fügte er hinzu.
Warnungen vor Hassreden und Fehlinformationen in Facebooks größtem Markt
Aber die schiere Größe und Vielfalt des Landes, zusammen mit einem Anstieg der antimuslimischen Stimmung unter Modis rechtsgerichteter hindu-nationalistischer Regierung, haben Facebooks Bemühungen um die Sicherheit der Menschen verstärkt und dienten als Paradebeispiel für seine Fehltritte in volatileren Entwicklungsländern.
Zum Beispiel haben Facebook-Forscher Anfang des Jahres intern einen Bericht aus dem indischen Bundesstaat Assam veröffentlicht, in Zusammenarbeit mit lokalen Forschern der Organisation Global Voices vor den Landtagswahlen im April. Es zeigte sich besorgt über “ethnische, religiöse und sprachliche Angstmacherei”, die sich gegen “Ziele, die als ‘bengalische Einwanderer’ wahrgenommen werden” richteten, die die Grenze aus dem benachbarten Bangladesch überquerten.
Die lokalen Forscher fanden auf Facebook Posts gegen bengalische Sprecher in Assam mit “vielen rassistischen Kommentaren, darunter einige, die dazu aufriefen, hinduistische Bengalen ‘zurück’ nach Bangladesch zu schicken oder zu töten”.
“Bengalisch sprechende Muslime haben es in Assam am schlimmsten”, sagten die lokalen Forscher.
Facebook-Forscher berichteten über weitere antimuslimische Hassreden und Fehlinformationen in ganz Indien. In anderen Dokumenten wurde “eine Reihe von entmenschlichenden Posts” erwähnt, in denen Muslime mit “Schweinen” und “Hunden” verglichen wurden, und falsche Behauptungen, dass der “Koran Männer aufruft, ihre weiblichen Familienmitglieder zu vergewaltigen”.
Das Unternehmen hatte auch Probleme mit der Sprache in diesen Beiträgen. Forscher stellten fest, dass “unser Mangel an Hindi- und Bengali-Klassifikatoren bedeutet, dass ein Großteil dieser Inhalte nie gekennzeichnet oder Maßnahmen ergriffen wird”.
“Der Abstieg eines indischen Testbenutzers in ein Meer polarisierender, nationalistischer Botschaften”
Die Bemühungen von Facebook um die Wahlen 2019 schienen sich weitgehend auszuzahlen. In einer Mitteilung vom Mai 2019 begrüßten Facebook-Forscher die „40 Teams und fast 300 Personen“, die für eine „überraschend ruhige, ereignislose Wahlperiode“ sorgten.
Facebook hat zwei „Break-Glass-Maßnahmen“ eingeführt, um Fehlinformationen zu stoppen, und laut der Mitteilung über 65.000 Inhalte wegen Verstoßes gegen die Wählerunterdrückungsrichtlinien der Plattform entfernt. Die Forscher stellten jedoch auch einige Lücken fest, unter anderem bei Instagram, das zu diesem Zeitpunkt keine Kategorie zur Meldung von Fehlinformationen hatte und vom Faktenprüftool von Facebook nicht unterstützt wurde.
In einer Forschungsnotiz vom Februar 2019 mit dem Titel “An Indian Test User’s Descent Into a Sea of Polarizing, Nationalistic Messages” wurde ein Testkonto beschrieben, das von Facebook-Forschern eingerichtet wurde und den empfohlenen Seiten und Gruppen des Unternehmens folgte. Innerhalb von drei Wochen füllte sich der Feed des Accounts mit „einem nahezu konstanten Sperrfeuer von polarisierenden nationalistischen Inhalten, Fehlinformationen, Gewalt und Blut“.
Viele der Gruppen hatten harmlose Namen, aber Forscher sagten, dass sie nach einem Terroranschlag vom 14. Februar in der umstrittenen Region Kaschmir zwischen den beiden Ländern begannen, schädliche Inhalte und Fehlinformationen zu verbreiten, insbesondere gegen Bürger des indischen Nachbarn und Rivalen Pakistan.
“Ich habe in den letzten 3 Wochen mehr Bilder von Toten gesehen als in meinem ganzen Leben”, schrieb einer der Forscher.
„Da es nur eine begrenzte Zahl von Politikern gibt, finde ich es unvorstellbar, dass wir nicht einmal eine grundlegende Schlüsselworterkennung eingerichtet haben, um so etwas zu erfassen“, kommentierte ein Mitarbeiter. “Schließlich kann man als Unternehmen nicht stolz sein, wenn wir weiterhin solche Barbarei in unserem Netzwerk aufblühen lassen.”