Wenn Nick Clegg Meta reparieren will, muss er sein Problem mit den Menschenrechten angehen | Frederike Kaltheuner

Wls der frühere britische Vize-Premierminister Nick Clegg 2018 zu Facebook kam, war das Unternehmen in eine Reihe von Skandalen verwickelt. Cambridge Analytica hatte personenbezogene Daten von Facebook-Profilen gesammelt. UN-Menschenrechtsexperten sagten, die Plattform habe eine Rolle bei der Erleichterung der ethnischen Säuberung der Rohingya in Myanmar gespielt. Seine Politik während der US-Präsidentschaftswahlen 2016 war unter Beschuss geraten. Jetzt hat Clegg eine führende Rolle als Präsident für globale Angelegenheiten des Unternehmens übernommen. Wird er in der Lage sein, die scheinbar endlosen Probleme mit der Funktionsweise von Facebook – das kürzlich in Meta umbenannt wurde – anzugehen?

Im Guten wie im Schlechten sind Meta und Google die geworden Infrastruktur der digitalen Öffentlichkeit. Auf Facebook greifen Menschen auf Nachrichten zu, soziale Bewegungen wachsen, Menschenrechtsverletzungen werden dokumentiert und Politiker treten mit Wählern in Kontakt. Hierin liegt das Problem. Kein einzelnes Unternehmen sollte so viel Macht über die globale Öffentlichkeit haben.

Das Geschäftsmodell von Meta basiert auf allgegenwärtiger Überwachung grundsätzlich unvereinbar mit Menschenrechten. Tracking und Profilerstellung Benutzer dringen in ihre Privatsphäre ein und füttern Algorithmen, die spaltende, sensationelle Inhalte fördern und verstärken. Studien zeigen, dass solche Inhalte bringt mehr Engagement und erntet wiederum größere Gewinne. Die Schäden und Risiken, die von Facebook ausgehen, sind ungleich verteilt: Online-Belästigung kann jedem passieren, aber Untersuchungen zeigen, dass sie überproportional Menschen betrifft, die aufgrund ihres Geschlechts, ihrer Rasse, ethnischen Zugehörigkeit, Religion oder Identität ausgegrenzt werden. Und während Desinformation ein globales Phänomen ist, sind die Auswirkungen in fragilen Demokratien besonders schwerwiegend.

Trotz seines neuen Titels wird Clegg allein diese Probleme nicht lösen können. Aber es gibt einige Dinge, die er tun sollte, um die Menschenrechte seiner Benutzer zu schützen. Zunächst sollte er Menschenrechtsaktivisten zuhören. Seit Jahren empfehlen sie, dass Facebook menschenrechtliche Sorgfaltspflichten erfüllt, bevor es in neue Länder expandiert, neue Produkte einführt oder Änderungen an seinen Diensten vornimmt. Sie haben dem Unternehmen auch empfohlen, mehr in die Moderation von Inhalten zu investieren, um effektiv auf Menschenrechtsrisiken zu reagieren, wo immer Menschen seine Plattformen nutzen.

Die Wahrscheinlichkeit, dass Online-Sprache Schaden anrichtet, wie es in Myanmar der Fall war, ist untrennbar mit der Ungleichheit und Diskriminierung in einer Gesellschaft verbunden. Meta muss erheblich in lokale Expertise investieren, die Licht in diese Probleme bringen kann. In den letzten zehn Jahren hat Facebook beeilte sich, Märkte zu erobern ohne die Gesellschaften und politischen Umgebungen, in denen sie tätig ist, vollständig zu verstehen. Es hat Länder in Afrika, Asien und Lateinamerika ins Visier genommen und fördert a Facebook-zentrierte Version des Internets. Es ist Partnerschaften mit Telekommunikationsunternehmen eingegangen, um kostenlosen Zugriff auf Facebook und eine begrenzte Anzahl genehmigter Websites zu ermöglichen. Es hat Konkurrenten wie WhatsApp und Instagram aufgekauft. Diese Strategie hatte verheerende Folgen und ermöglichte es Facebook, zum dominierenden Akteur in Informationsökosystemen zu werden.

Es ist auch wichtig, dass Meta bei der Moderation von Inhalten konsequenter, transparenter und verantwortungsvoller vorgeht. Hier gibt es einen Präzedenzfall: Die Santa Clara-Prinzipien zu Transparenz und Rechenschaftspflicht bei der Moderation von Inhalten, die von der Zivilgesellschaft entwickelt und von Facebook gebilligt (wenn auch nicht umgesetzt) ​​wurden, legen Standards fest, die diese Bemühungen leiten sollen. Unter anderem fordern sie verständliche Regeln und Richtlinien, die für Menschen auf der ganzen Welt in den Sprachen, die sie sprechen, zugänglich sein sollten, damit sie Entscheidungen zum Entfernen oder Verlassen von Inhalten sinnvoll anfechten können.

Meta sollte auch transparenter in Bezug auf die Algorithmen sein, die bestimmen, was die Leute auf ihren Websites sehen. Das Unternehmen muss sich mit der Rolle befassen, die Algorithmen dabei spielen, Benutzer zu schädlichen Fehlinformationen zu leiten, und den Benutzern mehr Entscheidungsspielraum geben, um ihre Online-Erfahrungen zu gestalten. Das Xcheck-System von Facebook hat Prominente, Politiker und andere hochkarätige Benutzer von den Regeln ausgenommen, die für normale Benutzer gelten. Anstatt unterschiedliche Regeln für mächtige Akteure aufzustellen, sollten Social-Media-Plattformen die Rechte der einfachen Menschen priorisieren – insbesondere der Schwächsten unter uns.

Da Meta versucht, das „Metaversum“ zu werden, werden diese Probleme nur noch offensichtlicher. Digitale Umgebungen, die auf Extended Reality (XR)-Technologien wie Virtual und Augmented Reality setzen, befinden sich noch in einem frühen Entwicklungsstadium. Aber es gibt bereits Anzeichen dafür, dass viele der gleichen Probleme in der Metaverse gelten werden. Virtual-Reality-Brillen können Benutzerdaten sammeln und sammeln, und einige VR-Benutzer haben bereits eine Prävalenz von gemeldet Belästigung und Missbrauch im Internet in diesen Einstellungen.

Bisher hat Meta die Rechte seiner Nutzer nicht in den Mittelpunkt seines Geschäftsmodells gestellt. Dies würde bedeuten, mit seiner zu rechnen Überwachungsmethoden und die Ressourcen, die es zur Achtung der Rechte seiner Benutzer weltweit aufwendet, radikal zu erhöhen. Anstatt sich umzubenennen und auf XR umzuschwenken, wo das Schadenspotenzial exponentiell wächst, sollte Meta auf Pause drücken und seine Aufmerksamkeit darauf lenken, die sehr greifbaren Probleme anzugehen, die es in unserer gegenwärtigen Realität schafft. Es ist jetzt an der Zeit, dies anzugehen.

source site-26