Facebook streicht „diskriminierenden“ Algorithmus in US-Regierungsvergleich | Meta

Facebook wird seine Algorithmen ändern, um diskriminierende Wohnungswerbung zu verhindern, und seine Muttergesellschaft wird sich einer gerichtlichen Aufsicht unterziehen, um eine Klage des US-Justizministeriums am Dienstag beizulegen.

In einer Pressemitteilung sagten US-Regierungsbeamte, dass Meta, früher bekannt als Facebook, eine Einigung erzielt habe, um die am selben Tag beim Bundesgericht in Manhattan eingereichte Klage beizulegen.

Gemäß den Bedingungen des Vergleichs wird Facebook die Verwendung eines Werbetools für Wohnungsanzeigen einstellen, von dem die Regierung sagte, dass es einen diskriminierenden Algorithmus verwendet, um Benutzer zu finden, die anderen Benutzern „aussehen“, basierend auf Merkmalen, die durch das Gesetz über faires Wohnen geschützt sind, sagte das Justizministerium. Bis zum 31. Dezember muss Facebook aufhören, das einst „Lookalike Audience“ genannte Tool zu verwenden, das auf einem Algorithmus basiert, der nach Angaben der USA auf der Grundlage von Rasse, Geschlecht und anderen Merkmalen diskriminiert.

Auch Facebook wird im Laufe des nächsten halben Jahres ein neues System entwickeln Rassen- und andere Ungleichheiten ansprechen verursacht durch die Verwendung von Personalisierungsalgorithmen in seinem Liefersystem für Wohnungsanzeigen, hieß es.

Laut der Pressemitteilung war es der erste Fall des Justizministeriums, der die algorithmische Diskriminierung nach dem Fair Housing Act anfocht. Facebook unterliegt nun der Genehmigung des Justizministeriums und der gerichtlichen Aufsicht für sein Ad-Targeting- und Bereitstellungssystem.

US-Anwalt Damian Williams nannte die Klage „bahnbrechend“. Die stellvertretende Generalstaatsanwältin Kristen Clarke nannte es „historisch“.

Ashley Settle, eine Facebook-Sprecherin, sagte in einer E-Mail, dass das Unternehmen „eine neuartige maschinelle Lernmethode ohne unser Anzeigensystem entwickelt, die die Art und Weise verändern wird, wie Wohnungsanzeigen an Menschen mit Wohnsitz in den USA aus verschiedenen demografischen Gruppen geliefert werden“.

Sie sagte, das Unternehmen werde seine neue Methode für Anzeigen im Zusammenhang mit Beschäftigung und Krediten in den USA erweitern. „Wir freuen uns, diese Bemühungen voranzutreiben“, fügte Settle in einer E-Mail hinzu.

Williams sagte, die Technologie von Facebook habe in der Vergangenheit online gegen den Fair Housing Act verstoßen, „genauso wie Unternehmen diskriminierende Werbung mit traditionelleren Werbemethoden betreiben“.

Clarke sagte: „Unternehmen wie Meta tragen die Verantwortung dafür, sicherzustellen, dass ihre algorithmischen Tools nicht auf diskriminierende Weise verwendet werden.“

Die Ankündigung erfolgt, nachdem Facebook bereits im März 2019 zugestimmt hatte, seine Ad-Targeting-Systeme zu überarbeiten, um Diskriminierung bei Wohnungs-, Kredit- und Stellenanzeigen im Rahmen eines rechtlichen Vergleichs mit einer Gruppe wie der American Civil Liberties Union, der National Fair Housing Alliance und anderen zu verhindern .

Die damals angekündigten Änderungen waren so konzipiert, dass Werbetreibende, die Wohnungs-, Stellen- oder Kreditanzeigen schalten wollten, Personen nicht mehr nach Alter, Geschlecht oder Postleitzahl ansprechen durften.

Das Justizministerium sagte am Dienstag, dass der Vergleich von 2019 die potenziell diskriminierenden Targeting-Optionen für Werbetreibende reduziert, aber andere Probleme nicht gelöst habe, darunter Facebooks diskriminierende Bereitstellung von Wohnungsanzeigen durch maschinelle Lernalgorithmen.

source site-32