TechScape: Endlich kommt das Gesetz zur Online-Sicherheit des Vereinigten Königreichs ins Parlament – ​​hier ist, was Sie wissen müssen | Sozialen Medien

Uüberwältigend und wenig überraschend. Mit diesen Worten beschrieb Molly Russells Vater die Reaktion von Meta, Pinterest und Snap auf eine Reihe von Empfehlungen des Gerichtsmediziners, der die Untersuchung des Todes seiner Tochter leitete.

Das Online-Sicherheitsgesetz, das heute (Dienstag) im britischen Parlament debattiert wird, bevor es in das House of Lords einzieht, steht seit langem im Mittelpunkt der Hoffnungen der Aktivisten für Internetsicherheit, nicht die Selbstreform der Industrie.

Der Gesetzentwurf ist jetzt ein stark verändertes Gesetz, daher ist hier eine Aufschlüsselung seiner Struktur, die derzeit nach einer Reihe von Änderungen in den letzten Monaten erfolgt.

Kinder schützen

Der Gesetzentwurf verpflichtet alle Technologieunternehmen in seinem Geltungsbereich – Dienste, die nutzergenerierte Inhalte von Facebook auf TikTok veröffentlichen, sowie Suchmaschinen –, Kinder vor schädlichen Inhalten und Aktivitäten zu schützen, die Schaden anrichten (z. B. Material zum sexuellen Missbrauch von Kindern). Unternehmen müssen auch sicherstellen, dass alle Inhalte, auf die Kinder zugreifen könnten, die aber nicht illegal sind, wie z. B. Inhalte im Zusammenhang mit Selbstverletzung, altersgerecht sind.

Alterssicherung, der Fachbegriff für die Online-Überprüfung des Alters einer Person, wird für die großen Plattformen eine Herausforderung, da sie auch Altersgrenzen durchsetzen müssen, typischerweise 13 Jahre für die großen Social-Media-Plattformen. Sie befürchten, dass eine strenge Überprüfung, sei es durch die Anforderung weiterer Ausweise oder das Scannen von Gesichtern, die Benutzer abschrecken und somit die Werbeeinnahmen beeinträchtigen wird. Aktivisten sagen, dass Technologieplattformen nicht genug tun, um das Alter zu überprüfen oder jugendliche Benutzer vor schädlichen Inhalten zu schützen. Gemäß einer im November angekündigten Änderung müssen Unternehmen ihre Maßnahmen zur Alterssicherung in den Nutzungsbedingungen festlegen, für die sich die Benutzer anmelden.

Zu den im November angekündigten zusätzlichen Änderungen gehört, dass Technologieunternehmen Risikobewertungen der Gefahren veröffentlichen müssen, die ihre Websites für Kinder darstellen. Gemäß der Struktur des Gesetzes müssen Plattformen Risikobewertungen der Schäden durchführen, die ihre Dienste Kindern zufügen könnten, und dann erklären, wie sie diese Risiken in ihren Nutzungsbedingungen angehen werden, in einem Prozess, der von der Kommunikationsaufsichtsbehörde überprüft wird. Ofcom.

Die Aufsichtsbehörde wird auch die Befugnis haben, Unternehmen dazu zu bringen, Durchsetzungsmitteilungen zu veröffentlichen, die sie wegen Verstößen gegen die Sicherheit von Kindern erhalten. Gemäß den Bestimmungen des Gesetzes ist Ofcom befugt, Unternehmen mit Geldstrafen von bis zu 18 Mio. £ oder 10 % des weltweiten Umsatzes zu belegen (das wären im Fall von Mark Zuckerbergs Meta mehr als 10 Mrd. $) oder in extremen Fällen sogar Websites zu sperren.

Die größte Änderung kam von einem Änderungsantrag, der von konservativen Rebellen unterstützt wurde und Tech-Führungskräfte der strafrechtlichen Haftung für schwerwiegende Verstöße gegen die Online-Sicherheit von Kindern aussetzt. In der Nacht zum Montag erzielte die Regierung einen Kompromiss, wonach Chefs, die ihre Fürsorgepflicht gegenüber Kindern nachhaltig verletzen, strafrechtlich verfolgt werden können.

Legale, aber schädliche Inhalte

Der Gesetzentwurf hat die Auferlegung einer Sorgfaltspflicht für große Technologieplattformen – wie Instagram und YouTube – aufgehoben, um erwachsene Benutzer vor schädlichem Material zu schützen, das jedoch unter die Kriminalitätsschwelle fällt, wie z. B. einige Formen von rassistischem oder sexistischem Missbrauch als „legale, aber schädliche“ Inhalte bekannt. Diese Bestimmung stand im Mittelpunkt der Bedenken von Kritikern, dass die Gesetzgebung eine „Charta der Zensur“ sei.

Stattdessen wird Ofcom sicherstellen, dass die Nutzungsbedingungen der Plattformen eingehalten werden. Wenn also eine Technologieplattform den Benutzern mitteilt, dass sie keine Inhalte zulässt, die Essstörungen fördern (ein Beispiel für legales, aber schädliches Material), dann muss sie dieses Versprechen einlösen oder mit einer Geldstrafe rechnen.

Benutzer haben auch das Recht, gegen das Entfernen von Inhalten oder eine Kontosperre Einspruch einzulegen. „Dies schützt Unternehmen davor, Inhalte willkürlich zu entfernen oder Benutzer zu sperren, und sorgt für ein ordnungsgemäßes Verfahren, wenn sie dies tun“, sagt die Regierung.

Das bedeutet zusätzliche Arbeit für Technologieunternehmen, ebenso wie ein weiterer Kompromiss: Erwachsene, die bestimmte Arten von legalem, aber potenziell beunruhigendem Material nicht sehen möchten, müssen die Möglichkeit haben, dessen Erscheinen in ihren Feeds zu reduzieren. Diese Art von Inhalten wird von der Regierung aufgelistet und umfasst Material, das missbräuchlich ist oder aufgrund von Rasse, ethnischer Zugehörigkeit, Religion, Behinderung, Geschlecht, Geschlechtsumwandlung oder sexueller Orientierung zu Hass aufruft.

Dies einzurichten und durchzusetzen, erfordert harte Arbeit und Investitionen bei den Technologieunternehmen und bei Ofcom. Sie können sich vorstellen, dass vor allem letzteres beschäftigt sein wird.

Neue Straftaten

Personen, die Social-Media-Beiträge verwenden, um Selbstverletzungen zu fördern, werden im Rahmen einer neuen Straftat strafrechtlich verfolgt, die durch das Gesetz eingeführt wurde, das England und Wales abdeckt. Es wird auch das Teilen von pornografischen „Deepfakes“ kriminalisieren – Bilder oder Videos, die so manipuliert wurden, dass sie einer Person ähneln. Das Aufnehmen und Weitergeben von „Downblousing“-Bildern, bei denen Fotos über dem Oberteil einer Frau aufgenommen werden, wird ebenfalls angegangen. Cyberflashing wird ebenfalls illegal gemacht.

Ein Verstoß gegen schädliche Kommunikation wurde entfernt. Dies hätte Personen ins Visier genommen, die eine Nachricht oder einen Post mit der Absicht senden, „ernsthaftes Leid“ zu verursachen. Für seine Tory-Kritiker war dies eine Gesetzgebung für „verletzte Gefühle“.

Im Allgemeinen legt der Gesetzentwurf allen Unternehmen die Sorgfaltspflicht auf, erwachsene Nutzer vor illegalen Inhalten wie Bildern des sexuellen Missbrauchs von Kindern, Rachepornografie, Morddrohungen, dem Verkauf von Schusswaffen und terroristischem Material zu schützen. Tech-Plattformen müssen proaktiv verhindern, dass dieses Material die Benutzer erreicht.

Der Gesetzentwurf hat Kritiker auf beiden Seiten. Tech-Unternehmen sagen, dass strafrechtliche Sanktionen Investitionen in Großbritannien bedrohen, und die Samaritans, die Wohltätigkeitsorganisation für psychische Gesundheit, sagt, dass die Aufhebung der Sorgfaltspflicht für legale, aber schädliche Inhalte für Erwachsene „eine wichtige Gelegenheit, Leben zu retten“ vergeuden wird. Aber die Tatsache, dass die strafrechtliche Verantwortlichkeit für die Gefährdung der Sicherheit von Kindern im Internet in die Gesetzesbücher aufgenommen werden soll, zeigt, dass die Abgeordneten Ian Russell zustimmen.

Wenn Sie die vollständige Version des Newsletters lesen möchten, abonnieren Sie bitte TechScape jeden Dienstag in Ihrem Posteingang.

source site-27