Facebook-Manager sagt, dass Technologieunternehmen eine stärkere Regulierung brauchen | Facebook

Die Technologiebranche „braucht eine Regulierung“, weil sie die Regeln zu Themen wie schädlichen Online-Inhalten nicht allein festlegen sollte, sagte ein Facebook-Manager.

Monika Bickert, Vizepräsidentin für Inhaltspolitik bei Facebook, glaubt, dass „staatliche Regulierung Standards festlegen kann, die alle Unternehmen erfüllen sollten“.

Ihre Kommentare kommen, als Technologieunternehmen und einige ihrer entschiedensten Kritiker diese Woche ins Parlament kommen, um über neue Regeln für den Umgang mit schädlichen Inhalten im Internet zu sprechen.

Unter denjenigen, die vor Abgeordneten und Kollegen aussagen werden, ist Frances Haugen, eine ehemalige Projektmanagerin bei Facebook, die Zehntausende interner Dokumente durchgesickert hat.

Die Dokumente enthalten Behauptungen, dass der Social-Media-Moloch wusste, dass seine Produkte die psychische Gesundheit von Teenagern schädigen und in Ländern wie Äthiopien ethnische Gewalt anstiften.

Sie behaupten auch, dass Facebook-Mitarbeiter vor und nach der Wahl wiederholt Bedenken geäußert haben, als Trump versuchte, den Sieg von Joe Biden fälschlicherweise zu kippen. Laut New York Times, sagte ein Datenwissenschaftler des Unternehmens seinen Mitarbeitern eine Woche nach der Wahl, dass 10 % aller US-amerikanischen Ansichten zu politischen Inhalten Beiträge betrafen, in denen fälschlicherweise behauptet wurde, die Abstimmung sei betrügerisch.

Bickert schrieb im Sunday Telegraph: „Obwohl es zweifellos unterschiedliche Ansichten geben wird, sollten wir uns alle in einer Sache einig sein: Die Technologiebranche braucht Regulierung.

„Bei Facebook haben wir uns dafür eingesetzt, dass demokratische Regierungen neue Regeln für das Internet in Bereichen wie schädliche Inhalte, Datenschutz, Daten und Wahlen festlegen, weil wir glauben, dass Unternehmen wie unseres diese Entscheidungen nicht alleine treffen sollten.

„Großbritannien ist eines der Länder, das mit weitreichenden Vorschlägen zu allen Themen von Hassreden bis hin zur Kindersicherheit führend ist.

Die Kulturministerin Nadine Dorries sagte, dass Online-Hass das „öffentliche Leben vergiftet“ habe und die Regierung angesichts des Todes des Abgeordneten Sir David Amess in seinem Wahlkreis dazu angespornt worden sei, ihr bevorstehendes Gesetz zur Online-Sicherheit zu überprüfen.

Dorries hat gesagt, dass der Tod von Amess möglicherweise nicht durch ein Vorgehen gegen Online-Missbrauch gestoppt wurde, aber es hat die Bedrohungen hervorgehoben, denen die Menschen in der Öffentlichkeit ausgesetzt sind.

Es wurde gefordert, dass Social-Media-Unternehmen die Daten schneller herausgeben und die Inhalte zügig selbst entfernen. Der Gesetzentwurf sollte auch Plattformen dazu zwingen, hasserfüllte Inhalte nicht mehr über ihre Algorithmen zu verstärken.

Bickert schrieb in der Zeitung: “Sobald das Parlament das Gesetz zur Online-Sicherheit verabschiedet hat, wird Ofcom sicherstellen, dass alle Technologieunternehmen zur Rechenschaft gezogen werden”.

Sie schlug vor, dass „Unternehmen auch danach beurteilt werden sollten, wie ihre Regeln durchgesetzt werden“.

Facebook veröffentlicht seit drei Jahren Zahlen darüber, wie es mit schädlichen Inhalten umgeht, einschließlich wie viel davon gesehen und entfernt wird. Darüber hinaus wird das Unternehmen unabhängig geprüft.

Bickert schrieb: „Ich habe mehr als ein Jahrzehnt als Strafverfolger in den USA verbracht, bevor ich zu Facebook kam, und in den letzten neun Jahren habe ich unserem Unternehmen geholfen, seine Regeln zu entwickeln, was auf unseren Plattformen erlaubt ist und was nicht.

„Diese Richtlinien sollen die Menschen vor Schaden schützen und gleichzeitig die Meinungsfreiheit schützen.

„Unser Team besteht aus ehemaligen Staatsanwälten, Strafverfolgungsbeamten, Spezialisten für Terrorismusbekämpfung, Lehrern und Befürwortern der Kindersicherheit, und wir arbeiten mit Hunderten von unabhängigen Experten auf der ganzen Welt zusammen, um uns dabei zu helfen, das richtige Gleichgewicht zu finden.

„Obwohl die Menschen oft nicht übereinstimmen, wo genau die Grenze gezogen werden soll, können staatliche Regulierungen Standards festlegen, die alle Unternehmen erfüllen sollten.“

Sie sagte, dass Facebook einen kommerziellen Anreiz habe, schädliche Inhalte von seinen Websites zu entfernen, weil „die Leute sie nicht sehen wollen, wenn sie unsere Apps verwenden, und Werbetreibende ihre Anzeigen nicht daneben haben wollen“.

Es wurde festgestellt, dass die Menge an Hassreden auf Facebook etwa fünf Aufrufe pro 10.000 beträgt, da sich die Erkennung verbessert hat.

Bickert erklärte: „Von den von uns entfernten Hassreden fanden wir 97 %, bevor uns jemand darüber berichtete – gegenüber nur 23 % vor einigen Jahren. Wir müssen zwar noch weiter gehen, aber die Durchsetzungsberichte zeigen, dass wir Fortschritte machen.“

Anfang dieser Woche stellte ein Bericht fest, dass eine internationale Interessengruppe, die falsche und verschwörerische Behauptungen über Covid-19 verbreitete, die durchschnittliche Anzahl der Interaktionen auf Facebook in den ersten sechs Monaten des Jahres 2021 mehr als verdoppelte.

Seiten im Besitz der World Doctors Alliance, einer Gruppe aktueller und ehemaliger Mediziner und Akademiker aus sieben Ländern, erhielten im Juni 2021 617.000 Interaktionen, gegenüber 255.000 im Januar, stellte das Institute for Strategic Dialogue fest.

Der World Doctors Alliance gehören prominente Mitglieder an, die fälschlicherweise behauptet haben, dass Covid-19 ein Scherz ist und Impfstoffe weit verbreiteten Schaden anrichten.

source site