Gesetz über digitale Dienste: Im Rahmen des ehrgeizigen Versuchs der EU, soziale Medien zu bereinigen | Sozialen Medien

Fast zwei Jahrzehnte nachdem die Geburt von Facebook das Zeitalter der sozialen Medien eingeläutet hat, führt die EU ehrgeizige Gesetze ein, um die größten Online-Foren der Welt zu säubern.

Der Digital Services Act (DSA) ist weitreichend, um Frauenfeindlichkeit zu bekämpfen, Kinder zu schützen, Verbraucherbetrug zu stoppen, Desinformation einzudämmen und demokratische Wahlen zu schützen. Das Vereinigte Königreich führt sein eigenes Gesetz ein, das Online-Sicherheitsgesetz, aber die EU-Vorschriften werden wahrscheinlich eine größere Wirkung haben, weil sie einen größeren Markt abdecken und die EU als Regulierungsmacht einflussreicher ist.

„Der Digital Services Act ist eine bahnbrechende Gesetzgebung, die einen weltweiten Standard für die Regulierung von Inhalten und den Schutz von Benutzern vor Online-Schäden setzen wird“, sagte Peter Church, Technologieanwalt bei Linklaters.

Und die DSA hat bereits Technologiefirmen im Visier. Der neue Besitzer von Twitter, Elon Musk, wurde gewarnt, dass seine Plattform nicht bereit für die neuen Regeln ist, die im nächsten Sommer für große Plattformen in Kraft treten könnten. Thierry Breton, der EU-Kommissar, der die Gesetzgebung überwacht, sagte Musk, er habe „große Arbeit vor sich“, um sicherzustellen, dass Twitter das Gesetz einhält.

Am Freitag schaltete sich nach der Suspendierung einer Gruppe von US-Tech-Journalisten von Twitter die Vizepräsidentin der Kommission für Werte und Transparenz, Věra Jourová, ein. Sie erinnerte Musk, dass DSA „die Achtung der Medienfreiheit erfordert“.

Nachrichten über die willkürliche Suspendierung von Journalisten auf Twitter sind besorgniserregend. Das EU-Gesetz über digitale Dienste verlangt die Achtung der Medienfreiheit und der Grundrechte. Dies wird unter unserer verstärkt #MediaFreedomAct. @elonmusk sollte sich dessen bewusst sein. Es gibt rote Linien. Und Sanktionen, bald.

— Věra Jourová (@VeraJourova) 16. Dezember 2022

Hier ist ein Leitfaden zur DSA und was sie für Technologieplattformen und ihre Benutzer bedeutet.

Was ist die DSA?

Das DSA gilt innerhalb der EU und regelt, im typischen Gesetzesjargon, digitale Dienste, die als „Vermittler“ in ihrer Rolle fungieren, Verbraucher mit Inhalten, Waren und Dienstleistungen zu verbinden. Damit fallen nicht nur Facebook und Google in den Geltungsbereich der Rechnung, sondern auch Amazon und App Stores.

Seine Bestimmungen umfassen: Schutz von Kindern davor, von Social-Media-Websites zu Werbezwecken profiliert zu werden; Benutzern die Möglichkeit geben, Einspruch gegen die Deaktivierung von Inhalten einzulegen; sicherzustellen, dass Produkte, die auf Online-Marktplätzen wie Amazon verkauft werden, nicht gefälscht sind; und Maßnahmen gegen Risiken wie Desinformation und „Cyber-Gewalt“ gegenüber Frauen ergreifen.

Bei Verstößen drohen Bußgelder in Höhe von 6 % des weltweiten Umsatzes und in den schwerwiegendsten Fällen eine vorübergehende Sperrung des Dienstes. Die EU kann auch verlangen, dass Standorte unverzüglich Maßnahmen zur Behebung von Problemen ergreifen. Benutzer können Schadensersatz für Schäden verlangen, die ihnen durch einen Verstoß gegen das Gesetz entstehen.

Wann tritt es in Kraft?

Das Gesetz teilt Technologieunternehmen in Tiers auf. Die am stärksten regulierte Stufe umfasst Very Large Online Platforms (VLOPs) und Very Large Online Search Engines (VLSEs), die monatlich mehr als 45 Millionen aktive Benutzer haben. Die EU wird Anfang nächsten Jahres festlegen, welche Plattformen sich für diese Kategorie qualifizieren. Für diese Stufe – die Facebook, Instagram, Google, TikTok und Amazon umfassen könnte – gelten strengere Anforderungen. Für VLOPs und VLSEs könnte das Gesetz im Sommer und für den Rest Anfang nächsten Jahres in Kraft treten.

Die größeren Betreiber müssen eine jährliche Risikobewertung durchführen, in der die Risiken schädlicher Inhalte wie Desinformation, Frauenfeindlichkeit, Schädigung von Kindern und Wahlmanipulation dargelegt werden. Sie müssen auch Maßnahmen ergreifen, um diese Risiken zu mindern, obwohl alle großen Social-Media-Plattformen und Suchmaschinen bereits Content-Moderationsteams haben. Dennoch werden diese Systeme nun von der EU geprüft.

Die großen Plattformen müssen außerdem eine unabhängige Prüfung ihrer Einhaltung des Gesetzes sowie der Anzahl der Personen, die sie für die Moderation von Inhalten einsetzen, veröffentlichen. Sie müssen den Aufsichtsbehörden auch Einzelheiten über die Funktionsweise ihrer Algorithmen zur Verfügung stellen, die kuratieren, was Sie online sehen, indem sie Inhalte empfehlen. Auch unabhängige Forscher dürfen die Einhaltung des Gesetzes überwachen.

Die großen Marktplatzplattformen wie Amazon, die keine Produzenten von Social-Media-Inhalten sind, müssen weiterhin Risikobewertungen durchführen und unabhängige Audits veröffentlichen.

Die gemeinsame Nutzung der Funktionsweise von Algorithmen ist ein großer Schritt für Technologieunternehmen. Empfehlungsalgorithmen sind eine „Black Box“, in der die Kriterien für die Priorisierung von Inhalten undurchsichtig sein können. Ein Grund, warum Unternehmen die Details schützen, besteht darin, sich vor Hackern, Spammern und feindlichen Akteuren zu schützen.

Wie schützt es Kinder?

Social-Media-Plattformen wird es verboten, Profile von Kindern zu erstellen, damit Unternehmen sie mit Anzeigen ansprechen können. Die Plattformen, die von Minderjährigen erreicht werden können – in der Tat die meisten Social-Media-Plattformen – müssen Maßnahmen ergreifen, um ihre Privatsphäre zu schützen und sie zu schützen. Die großen Plattformen müssen außerdem Risikobewertungen von Inhalten durchführen, die Kindern schaden, und Maßnahmen ergreifen, um zu verhindern, dass diese Inhalte Minderjährige erreichen. Die vorgeschlagene EU-Gesetzgebung soll die Entfernung von Online-Material zum sexuellen Missbrauch von Kindern abdecken.

Was ist mit kleinen Plattformen?

Kleinere Plattformen – wie natürlich auch große – müssen den Nutzern ein Beschwerderecht gegen die Entfernung ihrer Inhalte einräumen, plus die weitere Möglichkeit eines außergerichtlichen Beschwerdeverfahrens, wenn ihnen der Umgang mit der Beschwerde nicht gefällt. Allerdings müssen Wiederholungstäter, die ständig rechtswidrige Inhalte posten, gesperrt werden.

Sie müssen auch in Bezug auf Anzeigen und Algorithmen transparent sein. Unter dem DSA müssen Plattformen Benutzern Informationen darüber geben, warum ihnen eine Anzeige gezeigt wurde. Es muss auch Einzelheiten zu den Algorithmen enthalten, die verwendet werden, um die Online-Erfahrung eines Benutzers zu steuern.

Alle Online-Marktplätze müssen die Händler, die ihre Plattformen nutzen, im Auge behalten und sicherstellen, dass sie rückverfolgbar sind, um unseriöse Verkäufer abzuwehren. Sie müssen über Verfahren zum Entfernen unsicherer oder gefälschter Waren verfügen. Dazu gehört die stichprobenartige Überprüfung, ob Waren als illegal eingestuft wurden. Behörden können auch die Entfernung unsicherer Produkte anordnen.

Cloud-Hosting-Unternehmen, die die Inhalte anderer Personen speichern, müssen über einen Mechanismus verfügen, mit dem Benutzer und Dritte potenziell illegale Inhalte melden und der Beschwerdeführer dann über die ergriffenen Maßnahmen benachrichtigt werden kann. Sie müssen die zuständigen Behörden auch informieren, wenn sie Inhalte bemerken, die möglicherweise strafbar sind oder auf eine Straftat hindeuten, obwohl sich dies nur auf eine Bedrohung des Lebens oder der Sicherheit bezieht.

Church sagt: „Die wichtigsten Verpflichtungen zur Inhaltsregulierung fallen auf die allergrößten Online-Plattformen. Kleinere Betreiber werden einer viel leichteren Regulierung unterliegen, obwohl sie Nutzungsbedingungen erlassen und durchsetzen müssen und ein Melde- und Entfernungsverfahren für illegale Inhalte durchführen müssen.“

Wie unterscheidet es sich von der Online-Sicherheitsrechnung des Vereinigten Königreichs?

Das DSA definiert keine illegalen Inhalte – das wird entweder auf der Ebene der EU-Mitgliedstaaten oder durch andere Rechtsvorschriften definiert, die terroristische Inhalte abdecken.

Der britische Gesetzentwurf, der noch durch das Parlament geht, schafft neue Straftaten wie Cyberflashing und Aufforderung zur Selbstverletzung und enthält eine Liste illegaler Inhalte, denen Benutzer nicht begegnen dürfen. Außerdem müssen Pornografie-Websites Altersprüfungen durchführen, eine Detailebene, die sich nicht im DSA widerspiegelt.

Beide verlangen jedoch von großen Plattformen, dass sie Risikobewertungen von schädlichen Inhalten durchführen, die auf ihrer Plattform erscheinen, und erklären, wie sie diese Risiken mindern werden. Beide Gesetze wollen sicherstellen, dass Online-Plattformen über die richtigen Strukturen verfügen, um Schaden abzuwehren und aufzudecken. Auch das Online-Sicherheitsgesetz sieht ähnliche Strafen vor, obwohl der Anteil des weltweiten Umsatzes, der mit einer Geldbuße belegt werden kann, nach britischem Recht mit 10 % höher ist.

Eine verwandte Rechtsvorschrift, der Digital Markets Act, wird ebenfalls von der EU eingeführt, um wettbewerbswidriges Verhalten mächtiger Technologieunternehmen zu verhindern.

Elon Musk wurde von der EU-Kommission mitgeteilt, dass Twitter sich deutlich mehr anstrengen muss, um die DSA zu „bestehen“. Foto: Jim Watson/AFP/Getty Images

Könnte Twitter unter dem DSA verboten werden?

Letzten Monat feuerte Breton einen Schuss vor den Bug von Twitter und seine Vorbereitungen für die DSA. Er sagte, Twitter müsse seine Bemühungen erheblich verstärken, um „die Note zu bestehen“, was impliziere, dass die Plattform Gefahr laufe, das Gesetz nicht einzuhalten. Das könnte Bußgelder und schließlich ein Verbot aus der EU bedeuten.

Die Drohung erfolgt vor dem Hintergrund der Umwälzungen bei Twitter seit der Übernahme durch Elon Musk, darunter die Entlassung Tausender Mitarbeiter und die Wiederherstellung zuvor gesperrter Accounts.

Laut einem Sprecher der Europäischen Kommission enthält das Gesetz auch Bestimmungen, die sich mit der Sperrung von Journalistenkonten vom Freitag befassen, einschließlich der Anforderung, dass bei der Bestrafung von Benutzern und Inhalten „sorgfältig und verhältnismäßig unter gebührender Berücksichtigung der Grundrechte“ vorgegangen werden muss. .

Die Frage hängt aber auch davon ab, ob Twitter als VLOP eingestuft wird. Ein VLOP zu sein, birgt das größte Risiko, aufgrund der regulatorischen Anforderungen, die es an qualifizierte Plattformen stellt, als Verstoß gegen das Gesetz angesehen zu werden. In jedem Fall ist es möglich, dass die EU Twitter und andere große Tech-Plattformen mit Voruntersuchungen oder Informationsanfragen treffen wird, sobald das Gesetz in Kraft tritt.


source site-26