Facebook-Eigentümer prüft „Machbarkeit“ einer Hassrede-Studie in Äthiopien | Facebook

Der Eigentümer von Facebook und Instagram hat angekündigt, die „Machbarkeit“ der Durchführung einer unabhängigen Menschenrechtsstudie im Zusammenhang mit seiner Arbeit in Äthiopien zu prüfen, nachdem das Aufsichtsgremium des Unternehmens es aufgefordert hat, zu untersuchen, wie seine Plattformen zur Verbreitung von Hassreden verwendet wurden und dies nicht bestätigt wurde Gerüchte im Land.

Meta wurde von seinem Aufsichtsgremium, das die Entscheidungen und Richtlinien des Unternehmens zur Moderation von Inhalten überprüft, gebeten, die Studie durchzuführen, nachdem es die Entfernung eines Facebook-Posts bestätigt hatte, in dem die Beteiligung ethnischer tigrayanischer Zivilisten an Gräueltaten in der äthiopischen Region Amhara behauptet wurde. Da die Plattform den Beitrag nach einem Einspruch des Nutzers, der ihn gepostet hatte, später wieder eingestellt hatte, musste Facebook ihn wieder entfernen.

Wie Teil des Urteils, empfahl der Vorstand, dass die Muttergesellschaft von Facebook eine unabhängige menschenrechtliche Due-Diligence-Prüfung darüber durchführt, wie Facebook und Instagram „verwendet wurden, um Hassreden und unbestätigte Gerüchte zu verbreiten, die das Risiko von Gewalt in Äthiopien erhöhen“. Der Vorstand schrieb im Dezember letzten Jahres, dass die Studie einen Zeitraum von Juni 2020 „bis heute“ abdecken und sechs Monate dauern sollte. Während die Entscheidungen des Boards zur Moderation von Inhalten bindend sind, sind es seine politischen Empfehlungen nicht.

Reaktion auf die Empfehlung des Vorstandes am Donnerstag, sagte Meta, dass Menschenrechtsprojekte „sehr zeitintensiv“ sein und ein Jahr oder länger dauern können. Sie fügte hinzu, dass sie die Machbarkeit eines solchen Schritts prüfen werde.

„Wir werden die bestehende Menschenrechts-Due-Diligence- und dynamische Risikomanagementprozesse fortsetzen und die Machbarkeit eines damit verbundenen Due-Diligence-Projekts prüfen. Wir gehen davon aus, dass wir in den nächsten Monaten ein Update bereitstellen“, sagte Meta.

Metas Mäßigungsbemühungen in nicht englischsprachigen Ländern stehen auf dem Prüfstand, seit festgestellt wurde, dass sie Gewalt gegen die Rohingya, die muslimische Minderheit in Myanmar, erleichtert haben. Facebook räumte 2018 ein, nicht genug getan zu haben, um die Aufstachelung zu Gewalt und Hassreden gegen die Rohingya zu verhindern. Ein vom Unternehmen in Auftrag gegebener unabhängiger Bericht stellte fest, dass „Facebook zu einem Mittel für diejenigen geworden ist, die Hass verbreiten und Schaden anrichten wollen, und Beiträge mit Offline-Gewalt in Verbindung gebracht wurden“.

Frances Haugen, eine ehemalige Meta-Mitarbeiterin, die auf Moderationspraktiken im Unternehmen aufmerksam gemacht hat, hat davor gewarnt, dass das Social-Media-Unternehmen ethnische Gewalt in Äthiopien schürt. Als Zeuge gegenüber US-Gesetzgebern sagte Haugen, dass, obwohl nur 9 % der Facebook-Nutzer Englisch sprechen, 87 % der Ausgaben der Plattform für Fehlinformationen auf Englischsprachige entfallen.

Während eines jahrelangen Konflikts zwischen der äthiopischen Regierung und Rebellen aus der nördlichen Region Tigray sind Tausende gestorben und Millionen wurden vertrieben.

Meta fügte in seiner Erklärung am Donnerstag hinzu, dass es als Teil seiner Reaktion auf die Empfehlungen des Ausschusses im Dezember „erhebliche Ressourcen in Äthiopien investiert habe, um potenziell schädliche Inhalte zu identifizieren und zu entfernen“.

Ein Sprecher des Aufsichtsgremiums sagte in einer Erklärung: „Die bestehenden Richtlinien von Meta verbieten Gerüchte, die zu drohender Gewalt beitragen, die nicht in einem sinnvollen Zeitrahmen entlarvt werden können, und der Vorstand hat Empfehlungen abgegeben, um sicherzustellen, dass diese Richtlinien in Konfliktsituationen effektiv angewendet werden.

„Gerüchte, die behaupten, eine ethnische Gruppe sei an Gräueltaten beteiligt, wie sie in diesem Fall festgestellt wurden, haben das Potenzial, Menschen schweren Schaden zuzufügen.“

source site-27