Emojis dekodieren und “Unterstützung” definieren: Facebooks Regeln für Inhalte enthüllt | Facebook

Sie umfassen mehr als 300 Seiten und stellen einige der grenzwertigsten und ethisch anspruchsvollsten Nutzungen des weltweit größten sozialen Netzwerks durch seine 2,8 Milliarden monatlichen Nutzer vor.

Geheime Facebook-Richtlinien des Guardian zeigen, wie das Unternehmen die Arbeit seiner hauptsächlich ausgelagerten Moderatoren bis ins kleinste Detail kontrolliert und seine Regeln so genau definiert, dass den Auftragnehmern mitgeteilt wird, welche Emojis „Lob“ darstellen und welche als „Verurteilung“ gelten.

Ein besonderer Streitpunkt betrifft das, was als gefährliche Personen und Organisationen definiert wird. In den durchgesickerten Dokumenten aus dem Dezember 2020 werden Moderatoren für Facebook und Instagram angewiesen, „Unterstützung“ für terroristische Gruppen und andere „gefährliche Personen“ zu definieren, zwischen „Erklären“ und „Rechtfertigen“ der Handlungen von Terroristen und sogar zu unterscheiden In welchen Kontexten ist es akzeptabel, die Verwendung von „Gaskammern“ zu fordern?

Während die Community-Richtlinien von Facebook – einst fast vollständig vor den Augen der Nutzer verborgen – seit 2018 öffentlich sind, als sie erstmals in einem 27-seitigen Dokument darlegten, was sie auf ihrer Website tun und was nicht, unterscheiden sich diese neu durchgesickerten Dokumente.

Sie stellen viel detailliertere Richtlinien dar, was die veröffentlichten Regeln in der Praxis bedeuten. Facebook hat lange argumentiert, dass die Veröffentlichung der vollständigen Dokumente kontraproduktiv wäre, da böswillige Benutzer ein Verbot für absichtlich grenzüberschreitendes Verhalten vermeiden könnten.

Kate Klonick, Assistenzprofessorin für Rechtswissenschaft an der St. John’s University in New York, verglich die detaillierten Dokumente mit der Rolle der Rechtsprechung im englischen und walisischen Rechtssystem. “Diese Dinge sind sehr wichtig für die Ausbildung von Moderatoren und sie legen die Details der Community-Standards fest”, sagte Klonick.

Anfang dieses Jahres wurde Facebook von seinem eigenen Aufsichtsgremium kritisiert, weil es den Nutzern solche Details nicht erklärt hatte. Das Board, ein quasi-legalistisches Gremium, das von Mark Zuckerberg, dem Geschäftsführer von Facebook, eingerichtet wurde, um als „oberster Gerichtshof“ für die Moderationsentscheidungen des Netzwerks zu fungieren, entschied, dass a Facebook-Post zitiert Joseph Goebbels Donald Trump anzugreifen war kein Verstoß gegen seine Hassrede-Politik und verlangte von Facebook, den Beitrag wiederherzustellen.

In einer unverbindlichen „beratenden Erklärung“, die dieser Entscheidung beigefügt ist, empfahl der Board Facebook außerdem, „Schlüsselbegriffe aus der Richtlinie zu gefährlichen Personen und Organisationen zu erläutern und anzugeben“, „einschließlich der Bedeutung von„ Lob “,„ Unterstützung “und ‘Darstellung’.”

Facebook hat dies noch nicht getan – aber die Definitionen sind in den internen Richtlinien des Guardian festgelegt.

In den Dokumenten definiert Facebook “Lob” als “Inhalt, der einen bestimmten lobt” [that is, banned] Entität, Ereignis oder Ideologie und versucht, andere dazu zu bringen, positiver über sie zu denken. Wenn in der neutralen Rede Fakten, Geschichte, politische Spaltungen usw. diskutiert werden, werden oft wertbasierte Aussagen und emotionale Argumente gelobt. “

Dazu gehören direktes Lob wie „Die Kämpfer im Islamischen Staat sind wirklich mutig“ sowie Lob für die Aktionen der Gruppen wie „Schauen Sie sich all die großartige Arbeit an, die Al-Qaida für die lokale Gemeinschaft leistet“. Es verbietet jedoch weder Aussagen, die eine Gruppe als nicht bedrohlich abtun (wie „weiße Vorherrschaft ist keine Bedrohung“), noch Meta-Aussagen, die argumentieren, dass eine bestimmte Einheit tatsächlich nicht benannt werden sollte.

In ähnlicher Weise können Benutzer die Ursache einer gefährlichen Entität nicht „legitimieren“ (indem sie beispielsweise veröffentlichen, dass „die Handlungen des Islamischen Staates in Syrien aufgrund der ungerechten Besetzung des Nahen Ostens durch die Vereinigten Staaten gerechtfertigt sind“), aber sie können „vorgelegte Erklärungen“ veröffentlichen in Form einer Tatsache über die Motive des Unternehmens “.

Facebook unterscheidet zwischen akzeptablen und inakzeptablen Aussagen und sagt, dass “die IRA durch die brutalen Praktiken der britischen Regierung in Irland zur Gewalt gedrängt wurde”, während “die IRA zu Recht Gewalt zur Bekämpfung der brutalen Praktiken der britischen Regierung einsetzte” während des 20. Jahrhunderts “wäre verboten.

Zuckerberg selbst im Jahr 2018 erklärt Warum Facebook keine so detaillierten Definitionen für seine Nutzer veröffentlicht hat und schreibt, dass Facebook ein „grundlegendes Anreizproblem hat… wenn es nicht überprüft wird, werden sich die Menschen überproportional mit sensationelleren und provokanteren Inhalten beschäftigen“. Er fügte hinzu: „Unsere Untersuchungen legen nahe, dass sich die Menschen im Durchschnitt mehr damit beschäftigen, unabhängig davon, wo wir die Grenzen für das ziehen, was erlaubt ist, wenn sich ein Inhalt dieser Linie nähert – selbst wenn sie uns später mitteilen, dass sie dies nicht tun wie der Inhalt. “

Facebook entwickelte zwei Lösungen, die beide verfolgt wurden: Eine davon betraf das Unternehmen, das „Borderline-Inhalte“ künstlich herabstufte und deren Verbreitung algorithmisch unterdrückte. Zum anderen musste das Unternehmen weiterhin die genaue Art der „Linie“ verbergen, auf die sich Zuckerberg bezieht, und die Benutzer dazu zwingen, auf Nummer sicher zu gehen, anstatt sich an dem zu reiben, was zulässig war.

Klonick sagte, sie habe in diesem Punkt Sympathie für Facebook. „Je näher man der Transparenz der Regeln kommt, desto leichter können schlechte Schauspieler diese Regeln brechen. Aber je transparenter und offener Facebook genau über ihre Richtlinien zur Moderation von Inhalten ist, desto mehr laden sie zum Engagement und zur Diskussion ein und drücken zurück, wo sie die Linie drücken. Wenn Sie das Buch öffnen und sagen: ‘Hier [are] Alle Zahlen, hier sind alle Fakten: “Das ist eine Einladung, Fehler zu finden.”

In den durchgesickerten Richtlinien wird die geringste Klarheit für eine Regel gegeben, die das „Anpassen an eine Ursache“ verbietet. Dies ist wahrscheinlich das spezifische Problem, um das es in der Goebbels-Zitatentscheidung des Aufsichtsrats geht.

Gemäß den internen Richtlinien verbietet Facebook den Nutzern, „an die festgelegten Ziele, Methoden usw. einer Organisation oder Einzelperson zu glauben“, wie im Beispiel: „Ich stehe hinter Tommy Robinson.“ Es ist vielleicht auch überraschend, dass jemand ausdrücklich gegen die Richtlinien von Facebook verstößt, wenn er ein Bild einer bestimmten Person „ohne Untertitel oder Unsinn-Untertitel“ veröffentlicht, auch wenn keine Unterstützung für sie zum Ausdruck kommt.

Die Unterstützung verbotener Organisationen wird von Facebook selbst verboten. Am offensichtlichsten sind Inhalte, die einer verbotenen Gruppe finanziell oder in Form von Sachleistungen helfen sollen. Die Aussagen „Ich sende Erste-Hilfe-Sets an Isis-Kämpfer“, „Jeder, der zur Unite the Right-Kundgebung kommt, kann in meinem Haus bleiben“ und „Kostenlose Steuervorbereitungsdienste für stolze Jungen“ werden als unzulässige Beispiele aufgeführt.

Dies gilt auch für Handlungsaufforderungen im Namen einer solchen Organisation („Kontaktieren Sie uns per Telegramm“) sowie für die Einstellung von Mitarbeitern („Nehmen Sie am Kampf für Ihr Heimatland teil, schließen Sie sich HuM an“ – einer pakistanischen islamistischen Gruppe) und den Austausch von Inhalten, die von diesen Gruppen erstellt wurden , mit einer ausdrücklichen Ausnahme für “neutrale Nachrichtenberichterstattung”.

Die Darstellung ist dagegen recht einfach: Verbotene Gruppen und Einzelpersonen können nicht auf Facebook sein. Die Mitgliedschaft in einer Gruppe wie dem Ku Klux Klan ist automatisch ein Grund für ein Verbot, ebenso wie die Erstellung einer Seite oder Gruppe, die beispielsweise als „offizielles Jahrestreffen der NSDAP 2019“ bezeichnet wird. Das Erstellen einer Seite, die behauptet, ein „Fan-Account“ einer gesperrten Organisation zu sein, ist ebenfalls nicht zulässig, jedoch eher als Unterstützung als als Repräsentation.

Weitere Einblicke in den Detaillierungsgrad der Dokumente, der über diese Definitionen der obersten Ebene hinausgeht, sind weitere 10 Seiten mit Erläuterungen. Das Dokument, das als FAQ für die Moderatoren von Facebook dient, auf die sie sich während der Arbeit beziehen können, weist die Merkmale auf, dass es im Laufe der Zeit ergänzt wurde. Fragen werden immer spezifischer, je tiefer sie in das Dokument eintauchen.

In einem Fall werden die Emojis ??❤️? und ? explizit als „Lob / Unterstützung“ aufgeführt. In einem anderen Dokument wird klargestellt, dass „die Unterstützung der Verwendung von Konzentrationslagern, Gaskammern und das Versenden von Menschen in die Öfen“ nicht zulässig ist, es sei denn, auf dem Plakat ist eindeutig angegeben, dass sie sich auf etwas anderes als den Holocaust beziehen ( “ZB im Fall von Gaskammern: legale militärische Übungen zur Todesstrafe usw.”).

Einige der Antworten deuten auf die allgemeinen Probleme hin, die Facebook bei der Durchsetzung einer globalen Politik gegen gefährliche Personen hat. “Betrachten wir Personen, die wegen Terrorismus verurteilt wurden, als Terroristen im Rahmen unserer Politik?” Eine Frage stellt sich. Die Antwort lautet nein: „Wir benennen Einzelpersonen / Organisationen nur dann, wenn sie unsere internen Kriterien für die Benennung erfüllen, unabhängig von einer Verurteilung oder Anklage nach örtlichem Recht.“

Der Guardian hat die lange Liste von Personen und Organisationen, die Facebook als “gefährlich” eingestuft hat, nicht gesehen, aber das Dokument enthält die viel kürzere Liste ausgewiesener “hasserfüllter Ideologien”, deren Unterstützung von der Plattform entfernt wird. Es gibt vier: weiße Vorherrschaft, weißer Nationalismus, weißer Separatismus und Nazismus.

Selbst dann warnt das Unternehmen die Moderatoren davor, zu voreilig zu sein. Innerhalb der Richtlinien befinden sich zwei Bilder, von denen eines einen Weltmarktführer zeigt, der Photoshopped mit einer Nazi-Armbinde trägt, und eines mit einem Schnurrbart im Photoshopping-Hitler-Stil. Beides wäre ein politischer Kommentar und erlaubt, so die Leitlinien. „Sehen Sie sich die verräterischen Zeichen an: Wurde das Foto bearbeitet, um ein Hasssymbol einzufügen? Ist das Thema eine Persönlichkeit des öffentlichen Lebens? ” man sagt.

Facebook besteht darauf, die Transparenz zu erhöhen und die Unterscheidungen, die es macht, besser zu definieren.

Ein Sprecher sagte: „Wir veröffentlichen unsere Community-Standards, die Protokolle der regelmäßigen Treffen, die wir mit globalen Teams einberufen, um sie zu überprüfen und zu aktualisieren, sowie unsere vierteljährlichen Berichte, die zeigen, wie wir sie durchsetzen, damit die Öffentlichkeit sie sehen kann.

„Wir haben uns zuvor verpflichtet, zu veröffentlichen, wie wir Schlüsselbegriffe im Rahmen dieser Richtlinie anwenden und ob wir die Liste der Personen und Organisationen veröffentlichen können, die wir nach diesen Regeln als gefährlich bezeichnen. Bevor wir dies tun, müssen wir sicherstellen, dass die Veröffentlichung dieser Liste nicht versehentlich dazu führt, dass gefährliche Organisationen oder Einzelpersonen diese Regeln umgehen oder die Sicherheit unserer Mitarbeiter gefährden. “