Facebook-Moderationssystem bevorzugt „Geschäftspartner“, sagt Aufsichtsgremium | Meta

Eine Facebook-Richtlinie, die hochkarätige Benutzer vor Moderation schützen soll, wurde so strukturiert, dass sie den Geschäftsinteressen des Unternehmens gerecht wird, stellte Metas „Oberster Gerichtshof“ fest, und räumte dem Schutz der Meinungsfreiheit und der Bürgerrechte auf der Plattform keine Priorität ein.

Das Aufsichtsgremium, das Moderationsentscheidungen auf Facebook und Instagram prüft, sagte, das „Gegenkontroll“-System der Plattformen scheine „Geschäftspartner“ – darunter Entertainer, Musiker und Nachrichtenverleger – zu bevorzugen, während Journalisten und zivilgesellschaftliche Organisationen „weniger klar“ seien Pfade“, um auf das Programm zuzugreifen.

„Obwohl Meta dem Vorstand sagte, dass die Gegenprüfung darauf abzielt, die Menschenrechtsverpflichtungen von Meta voranzutreiben, stellten wir fest, dass das Programm direkter strukturiert zu sein scheint, um geschäftliche Bedenken auszuräumen“, sagte der Vorstand und fügte hinzu, dass er Bedenken wegen des „Mangels an Transparenz“ habe das Programm.

Es heißt, dass die Gegenprüfung bestimmten Benutzern einen größeren Schutz gewährt als anderen, da Inhalte von Benutzern auf der Gegenprüfungsliste auf dem Laufenden bleiben dürfen, während sie von menschlichen Moderatoren überprüft werden, die die „vollständige Bandbreite“ der Inhaltsrichtlinien anwenden. Meta beschrieb es als eine „Fehlervermeidungsstrategie“, die wichtige Benutzer vor irrtümlichen Entfernungen von Inhalten schützte.

Im Gegensatz dazu ist es für gewöhnliche Benutzer viel unwahrscheinlicher, dass ihre Inhalte Prüfer erreichen, die die gesamte Bandbreite der Inhaltsrichtlinien von Meta anwenden können.

Der Vorstand sagte, dass die „Prominenz- oder Follower-Anzahl“ eines Benutzers nicht das einzige Kriterium für den Erhalt des besonderen Schutzes sein sollte, den das Programm bietet. Meta räumte gegenüber dem Vorstand ein, dass die Kriterien für die Aufnahme von „Geschäftspartnern“ in die Liste die Höhe der von ihnen generierten Einnahmen beinhalteten.

Meta teilte dem Vorstand auch mit, dass einige Inhalte von Takedowns ausgenommen sind. Das Unternehmen beschrieb dieses System als „technische Korrekturen“ und gab an, dass es etwa 1.000 pro Tag durchführte. Der Vorstand empfahl, dass Meta Audits von Durchsetzungsmaßnahmen durchführt, die unter dem System blockiert sind.

Die Kammer fügte hinzu, dass das System für technische Korrekturen als „Zulassungsliste“ oder „Weiße Liste“ betrachtet wird. Im September letzten Jahres berichtete das Wall Street Journal unter Verwendung von Dokumenten, die von der Whistleblowerin Frances Haugen offengelegt wurden, dass der brasilianische Fußballer Neymar auf einen Vergewaltigungsvorwurf im Jahr 2019 reagiert hatte, indem er Facebook- und Instagram-Videos gepostet hatte, in denen er sich verteidigte, einschließlich der Anzeige seiner WhatsApp-Korrespondenz mit seinem Ankläger. Die Clips von WhatsApp – ebenfalls im Besitz von Meta – enthielten den Namen der Anklägerin und Nacktfotos von ihr.

Laut WSJ wurden Moderatoren für mehr als einen Tag daran gehindert, das Video zu entfernen, während die normale Bestrafung der Deaktivierung seiner Konten nicht umgesetzt wurde. Ein vom WSJ eingesehenes internes Dokument besagt, dass Neymars Konten aktiv blieben, nachdem „der Fall an die Führung eskaliert“ worden war. Neymar bestritt den Vergewaltigungsvorwurf und es wurden keine Anklagen gegen den Fußballer erhoben.

Unter Berufung auf das Beispiel von Neymar sagte der Vorstand, dass obwohl Meta sagte, es habe ein System zur Priorisierung von Inhaltsentscheidungen, einige Inhalte immer noch für „bedeutende Zeiträume“ online blieben, während dies geschah.

„Im Fall Neymar ist es schwer zu verstehen, wie nicht einvernehmliche intime Bilder, die auf einem Konto mit mehr als 100 Millionen Followern gepostet wurden, nicht an die Spitze der Warteschlange für eine schnelle, hochrangige Überprüfung gestiegen wären, wenn ein Priorisierungssystem dies getan hätte vorhanden“, so der Vorstand.

Der Vorstand fügte hinzu, dass die Gegenprüfungskategorie „Geschäftspartner“ Benutzer umfasst, die wahrscheinlich Geld für das Unternehmen generieren, entweder durch „formelle Geschäftsbeziehungen“ oder indem sie Benutzer auf Meta-Plattformen ziehen. Es hieß, dass es aufgrund der „Wahrnehmung von Zensur“ vorziehe, Inhalte aufrechtzuerhalten, anstatt sie zu entfernen.

Der Vorstand gab 32 Empfehlungen ab. Dazu gehörten: Aufhebung des besonderen Schutzes für kommerziell wichtige Konten, wenn sie häufig gegen Inhaltsregeln verstoßen; Priorisierung der Moderation von Beiträgen, die für die Menschenrechte wichtig sind; und verletzende Inhalte von Cross-Check-Benutzern mit „hohem Schweregrad“ sollten entfernt oder ausgeblendet werden, während Überprüfungen stattfinden.

Der Vorstand sagte, Meta betrachte das Risiko einer Inhaltsentscheidung, die zu einer „Eskalation auf höchster Ebene“ an einen Geschäftsführer oder Chief Operating Officer einer Organisation führe, als sehr sensibel. Solche Inhalte tragen im Rahmen des Cross-Check-Systems das Tag „extrem hoher Schweregrad“. Meta scheint sich daher mehr auf geschäftsbezogene Konsequenzen für seine Entscheidungen zu konzentrieren als auf menschenrechtsbezogene.

Metas Präsident für globale Angelegenheiten, Nick Clegg, sagte, dass das Unternehmen innerhalb von 90 Tagen antworten werde, um die Empfehlungen des Vorstands „vollständig zu berücksichtigen“.

Heute, den @OversightBoard hat seine Grundsatzgutachten zum Gegenkontrollsystem von Meta veröffentlicht. Wir haben ihre Überprüfung angefordert, damit wir unsere Arbeit zur Verbesserung des Programms fortsetzen können. Um ihren Empfehlungen vollständig nachzukommen, haben wir zugestimmt, innerhalb von 90 Tagen zu antworten. https://t.co/2LMSQ65kcW

– Nick Clegg (@nickclegg) 6. Dezember 2022


source site-27