Das britische Gesetz zur Online-Sicherheit könnte den Ton für die globale Regulierung der sozialen Medien setzen | Technologie

Schon vor der Ankunft der Facebook-Whistleblowerin Frances Haugen spürten Social-Media-Unternehmen die Hitze von Aufsichtsbehörden und Politikern. Es ist jetzt weißglühend.

Wir waren sowieso weit über den Wendepunkt der leichten Besorgnis von Regierungen und Wachhunden hinaus, aber Haugens durchgesickerte Dokumente und die Zeugenaussagen des Senats haben denen, die sagen, dass etwas getan werden muss, größere Legitimität und mehr Auftrieb verliehen.

In Großbritannien bedeutet dies, den Entwurf des Gesetzes zur Online-Sicherheit zu klären und zu verschärfen, ein bahnbrechendes Gesetz, das den Ton für die Regulierung sozialer Medien auf der ganzen Welt angeben könnte. Die Debatte über den Gesetzentwurf wird morgen mit der Wiederaufnahme der Anhörungen durch einen gemeinsamen Ausschuss von Abgeordneten und Peers zu dem vorgeschlagenen Gesetz fortgesetzt.

Das Gesetz zur Online-Sicherheit umfasst Technologieunternehmen, die es Benutzern ermöglichen, ihre eigenen Inhalte zu veröffentlichen oder miteinander zu interagieren – ein Netz, das eine Vielzahl von wiedererkennbaren Namen von Facebook und Instagram bis hin zu Twitter, Snapchat und YouTube durchdringt. Suchmaschinen wie Google werden ebenso einbezogen wie kommerzielle Pornografieseiten wie OnlyFans und Videospiele, die es den Nutzern ermöglichen, miteinander zu sprechen. Der Gesetzentwurf erlegt diesen Unternehmen eine Sorgfaltspflicht auf, um ihre Benutzer vor schädlichen Inhalten zu schützen, und die Kommunikationsaufsicht Ofcom wird mit der Überwachung der Einhaltung beauftragt.

Die Pflicht gliedert sich in drei Bereiche: Verhinderung der Verbreitung illegaler Inhalte und Aktivitäten wie Kinderpornografie, terroristisches Material und Hassverbrechen wie Rassenmissbrauch; Sicherstellen, dass Kinder keinen schädlichen oder unangemessenen Inhalten ausgesetzt sind; und für die großen Player wie Facebook, Twitter und YouTube sicherstellen, dass Erwachsene vor legalen, aber schädlichen Inhalten geschützt sind.

Ist Zuckerberg bereit für eine Geldstrafe von 8 Milliarden Pfund?

Ein Verstoß gegen diese Sorgfaltspflicht könnte zu einer Geldstrafe von bis zu 18 Millionen Pfund oder 10 % des weltweiten Jahresumsatzes führen, was im Fall von Facebook mehr als 8 Milliarden Pfund betragen würde. Die Gesetzgebung enthält auch Bestimmungen für eine aufgeschobene Befugnis – falls Unternehmen der Linie nicht folgen –, strafrechtliche Sanktionen gegen Führungskräfte zu verhängen, wenn sie auf Informationsanfragen von Ofcom nicht genau, vollständig und rechtzeitig reagieren.

Die Zeugenaussage von Haugen und die Enthüllungen im Wall Street Journal, die auf von ihr durchgesickerten Dokumenten beruhten, haben dem Verfahren zweifellos zusätzliche Kosten verliehen. Haugen sagte den Senatoren letzte Woche, dass Facebook „astronomische Profite vor den Menschen“ stelle, weiß, dass seine Systeme Teenager zu magersüchtigen Inhalten führen und dass seine Hauptplattform verwendet wird, um ethnische Gewalt in Äthiopien aufzustacheln.

Damian Collins, der konservative Abgeordnete und Vorsitzender des gemeinsamen Ausschusses für den Gesetzentwurf, sagte gegenüber TechScape. Haugens Aussage bestätigte die Notwendigkeit eines Regulierungssystems, das der Gesetzentwurf vorschlägt. “Ich denke, die Beweise von Frances Haugen unterstreichen die Notwendigkeit dafür, eine Regulierungsbehörde mit Bußgeld- und Prüfungsbefugnissen ist das, was wir brauchen.”

Collins fügt jedoch hinzu, dass noch Fragen zu klären sind, etwa ob Werbung in den Geltungsbereich schädlicher Inhalte aufgenommen werden sollte und ob mehr auf Anonymität geachtet werden sollte.

Ein Gesetz mit Zähnen

Das fühlt sich nicht wie ein Gesetz an, das verwässert wird. Haugens Zeugenaussage und die Zwischenrufe der Senatoren, die sie interviewten, betonten die Linie, dass Facebook den Gewinn über die Sicherheit stellt (Facebook bestreitet dies und sagt, dass es riesige Summen in Sicherheitssysteme und Moderatoren investiert hat). Die erste Beweisaufnahme des britischen Komitees brachte den gleichen Punkt in einem denkwürdigen Auftritt von Edleen John, der Direktorin für Unternehmensangelegenheiten und Co-Partnerin für Gleichstellung, Vielfalt und Inklusion beim Fußballverband, zum Ausdruck. John sagte dem Ausschuss, dass Online-Missbrauch eine „goldene Gans“ für Social-Media-Firmen sei, weil er ihr Publikum vergrößerte. Sie fügte hinzu: „Was wir von Social-Media-Unternehmen sehen, ist erheblicher Widerstand und der Wunsch, sich auf ein Geschäftsmodell zu konzentrieren und Geld zu verdienen.“

Johns Sitzung beinhaltete ein eindrucksvolles Zeugnis über die Auswirkungen des rassistischen Missbrauchs durch Rio Ferdinand, während Sanjay Bhandari, der Vorsitzende der Kick It Out-Kampagnengruppe gegen Rassismus im Fußball, wichtige Punkte zur Regulierung anonymer Social-Media-Konten ansprach. In den beiden bisherigen Beweissitzungen wurden Beiträge von Stonewall, dem Antisemitism Policy Trust, dem Center for Countering Digital Hate, dem Wikipedia-Gründer Jimmy Wales, der Informationsbeauftragten Elizabeth Denham und angesehenen Akademikern vorgestellt. Zusammengenommen werden ihre Aussagen zumindest in den Bereichen des Gesetzentwurfs Klarheit schaffen, in denen dies erforderlich ist (z. B. die Definition von legalen, aber schädlichen Inhalten).

Zu den Zeugen, die in den nächsten Wochen aussagen werden, gehören am 25. Oktober aktuelle und ehemalige Mitarbeiter von Social-Media-Unternehmen und Haugen selbst. Der Ausschuss wird seinen Bericht vor Ende des Jahres veröffentlichen und der formelle Gesetzentwurf wird voraussichtlich im nächsten Jahr dem Parlament vorgelegt.

Es lohnt sich, einige Aspekte der Rechnung durchzugehen so wie es in Entwurfsform steht (Der Umfang davon ist so groß, dass Sie viele Geschichten darüber sehen werden, sobald es Gesetz wird, vertrauen Sie mir). Der Gesetzentwurf macht deutlich, dass alle Unternehmen in seinem Zuständigkeitsbereich Menschen vor illegalen Inhalten wie Hasskriminalität, Belästigung und Bedrohungen schützen müssen. Ein weiterer Schwerpunkt liegt auf dem Schutz von Kindern vor unangemessenen Inhalten sowie vor sexueller Ausbeutung und Missbrauch.

Einige Unternehmen, die Sie erwarten würden, werden genauer untersucht als andere. Unternehmen wie Facebook, Instagram, TikTok, YouTube und Twitter werden in die „Kategorie 1“ fallen, was bedeutet, dass sie Inhalte bekämpfen müssen, die „rechtmäßig, aber dennoch schädlich“ sind. Dieser heikle Bereich gilt für Missbrauch, der nicht kriminell ist, für die Ermutigung zur Selbstverletzung und für Fehlinformationen (mit Covid-Impfstoffen derzeit ein besonderes Thema).

Redefreiheit

Im Allgemeinen müssen alle vom Gesetzentwurf erfassten Unternehmen „Schutzmaßnahmen für die Meinungsfreiheit“ ergreifen. Diese Sicherheitsvorkehrungen werden von Ofcom getroffen, können jedoch die Übertragung schwieriger Entscheidungen an die Moderatoren erfordern. Nutzer müssen gegen die Entfernung von Inhalten Einspruch einlegen können und Unternehmen müssen diese Inhalte wiederherstellen, wenn sie zu Unrecht entfernt wurden (vermutlich unter Verstoß gegen die Garantien der freien Meinungsäußerung). Benutzer können sich an Ofcom wenden, dessen Content-Appellations-Desk beschäftigt sein wird, wie Sie sich vorstellen können.

Die Unternehmen der Kategorie 1 müssen Berichte über ihre Auswirkungen auf die Meinungsfreiheit veröffentlichen, da die Regierung bemüht ist, sicherzustellen, dass sie Inhalte nicht „übermäßig entfernen“. Die Regierung räumt ein, dass künstliche Intelligenzsysteme zur Moderation von Inhalten verwendet werden, möchte jedoch, dass Unternehmen sicherstellen, dass der Einsatz von KI nicht dazu führt, dass fälschlicherweise als schädlich eingestufte Beiträge wie Satire entfernt werden.

Darüber hinaus müssen Unternehmen der Kategorie 1 „demokratisch wichtige“ Inhalte wie Beiträge, die die Regierungspolitik fördern oder ablehnen, schützen und dürfen bestimmte politische Standpunkte nicht diskriminieren. Facebook, Twitter und Co müssen dies in ihren Allgemeinen Geschäftsbedingungen festlegen, um von Ofcom überwacht zu werden. Inhalten, die demokratisch wichtig sind, muss ein „hohes Maß“ an Schutz geboten werden. In einem von der Regierung angeführten Beispiel könnte eine Social-Media- oder Video-Sharing-Plattform grafische Inhalte aufrecht erhalten lassen, wenn sie auf Gewalt gegen eine bestimmte Gruppe aufmerksam machen.

Tatsächlich hat Twitter in seiner Vorlage an den gemeinsamen Ausschuss es ist nicht klar genug, „was Sprache online ist und was nicht“. Facebook sagt, dass es auch das Internet sicherer machen möchte, während „die enormen sozialen und wirtschaftlichen Vorteile erhalten bleiben“, die es mit sich bringt.

Es gibt also viel durchzustehen. Allein die Definition von „demokratisch wichtig“ und „Bürgerjournalist“ wird die Autoren von Ts & Cs und Ofcom auf Trab halten. Erwarten Sie einen politischen Vorstoß zur Überwachung der Algorithmen, die die von Social-Media-Nutzern und Video-Site-Betrachtern angezeigten Inhalte anpassen. Die Enthüllungen von WSJ und Haugen haben Algorithmen einen schurkischen Aspekt verliehen, der der Aufmerksamkeit der Aufsichtsbehörden nicht entgehen wird. Der Gesetzentwurf sieht vor, Zugang zu Informationen über die Algorithmen von Unternehmen zu verlangen. Aber das ist nicht das letzte Mal, dass wir in den nächsten Monaten von dieser Klausel hören werden.

Twitters Sicherheitsantrieb

Seit letztem Monat hat Twitter eine Reihe von Änderungen und Tests angekündigt, die sich auf die Sicherheit konzentrieren. Am Montag kündigte es die weltweite Einführung einer zuvor getesteten Funktion an, die es Benutzern ermöglicht, einen ärgerlichen Follower zu entfernen, ohne ihn formell zu blockieren (und all das „x hat mich blockiert“-Hoo-ha, das ein solcher Schritt oft mit sich bringt).

Es testet auch eine Funktion, die Benutzer warnt, dass sie online in eine „intensive“ Konversation springen; und einen „Sicherheitsmodus“, der Konten für sieben Tage sperrt, wenn die Systeme des Technologieunternehmens sie mit schädlicher Sprache oder sich wiederholenden, ungebetenen Antworten und Erwähnungen erkennen.

In ihrem Auftritt im Senat verwies Haugen auf Twitters Versuche, einige Interaktionen zu entschärfen, als ein Beispiel, dem ihr ehemaliger Arbeitgeber folgen könnte. Haugen sagte, Twitter habe der Plattform etwas Wärme genommen, indem es eine Funktion eingeführt habe, die Benutzer fragte, ob sie einen Link twittern wollten, auf den sie nicht getippt hatten.

Im Zusammenhang mit dem jüngsten Facebook-Sturm und der Wiederaufnahme der Anhörungen zum Online-Sicherheitsgesetz kann Twitter zumindest sagen, dass es Maßnahmen ergreift, um seine Plattform zu einem weniger konfrontativen Raum zu machen.

Das breitere TechScape

Ich habe gerade Social Warming von Charles Arthur, einem ehemaligen Technologieredakteur des Guardian, gelesen, und es ist eine sehr gute Einführung in die Geschichte der sozialen Medien und wie sie auf globaler Ebene unüberschaubar geworden ist. Du wirst es durchrasseln.

Social Media als Krücke mag mit Rauchen vergleichbar sein – etwas, das mit unseren Händen zu tun hat, das auch unseren Geist beruhigt. Aber der kumulative Effekt ähnelt viel eher der globalen Erwärmung: durchdringend, subtil, unerbittlich und vor allem durch unsere eigenen Handlungen und Neigungen verursacht.“

–––

Nick Clegg, Vizepräsident für globale Angelegenheiten von Facebook, hat als verantwortlicher Leiter für die Kommunikationsstrategie des Unternehmens eine führende Rolle bei der Reaktion von Facebook auf die WSJ/Haugen-Krise eingenommen. Die Reaktion von Facebook war im Wesentlichen kämpferisch und konzentrierte sich insbesondere auf eine “Fehlcharakterisierung” der von Haugen durchgesickerten Dokumente. Aber am Sonntag klang er weicher. Eine leichte Kommunikationsverschiebung?

Wir werden Erwachsenen und Eltern neue Tools an die Hand geben, damit sie überwachen können, was ihre Teenager online tun. Und wir wollen den Nutzern mehr Kontrolle geben. Wir geben Benutzern die Möglichkeit, den Algorithmus zu überschreiben, um ihren eigenen Newsfeed zu erstellen. Viele Leute, die Facebook in den USA und anderswo nutzen, wollen mehr Freunde sehen, weniger Politik.“

–––

In seinem wöchentlicher Newsletter letzte Woche, gab das Massachusetts Institute of Technology eine hervorragende Analyse der Algorithmen von Facebook. Sie müssen viel über Algorithmen lesen, wenn Sie mit der regulatorischen und gesetzgeberischen Reaktion auf die Haugen-Enthüllungen Schritt halten wollen.

Umgangssprachlich verwenden wir den Begriff „Facebook-Algorithmus“ so, als ob es nur einen gäbe. Tatsächlich entscheidet Facebook auf der Grundlage von Hunderten, vielleicht Tausenden von Algorithmen, wie Anzeigen ausgerichtet und Inhalte eingestuft werden. Einige dieser Algorithmen ermitteln die Vorlieben eines Benutzers und steigern diese Art von Inhalten im Nachrichtenfeed des Benutzers. Andere dienen dazu, bestimmte Arten von schädlichem Inhalt wie Nacktheit, Spam oder Clickbait-Schlagzeilen zu erkennen und sie zu löschen oder in den Feed zu verschieben.“

source site