IBM gibt die voreingenommene Gesichtserkennungstechnologie auf

Bildrechte
Getty Images

Bildbeschreibung

Eine Studie der US-Regierung legte nahe, dass Gesichtserkennungsalgorithmen bei der Identifizierung afroamerikanischer Gesichter weniger genau waren

Der Technologieriese IBM wird aufhören, Gesichtserkennungssoftware für "Massenüberwachung oder Rassenprofilierung" anzubieten.

Die Ankündigung kommt, als die USA nach der Ermordung eines schwarzen Mannes, George Floyd, Forderungen nach Polizeireformen stellen.

In einem Brief an den US-Kongress sagte IBM, dass KI-Systeme, die in der Strafverfolgung eingesetzt werden, "auf Voreingenommenheit" getestet werden müssten.

Ein Aktivist sagte, es sei ein "zynischer" Schritt einer Firma gewesen, die maßgeblich zur Entwicklung von Technologie für die Polizei beigetragen habe.

In seinem Brief an den Kongress sagte IBM-Chef Arvind Krishna, der "Kampf gegen Rassismus sei so dringend wie nie zuvor". Er legte drei Bereiche fest, in denen das Unternehmen mit dem Kongress zusammenarbeiten wollte: Polizeireform, verantwortungsbewusster Einsatz von Technologie sowie Erweiterung von Fähigkeiten und Bildung Chancen.

"IBM lehnt die Verwendung von Technologien, einschließlich Gesichtserkennungstechnologien anderer Anbieter, für Massenüberwachung, Rassenprofile, Verstöße gegen grundlegende Menschenrechte und Grundfreiheiten entschieden ab und wird diese nicht dulden", schrieb er.

"Wir glauben, dass es jetzt an der Zeit ist, einen nationalen Dialog darüber zu beginnen, ob und wie Gesichtserkennungstechnologien von nationalen Strafverfolgungsbehörden eingesetzt werden sollten."

Anstatt sich auf eine potenziell voreingenommene Gesichtserkennung zu verlassen, forderte das Unternehmen den Kongress auf, Technologien einzusetzen, die "mehr Transparenz" bringen, wie z. B. Körperkameras für Polizisten und Datenanalysen.

Datenanalysen sind für das Geschäft von IBM wichtiger als Gesichtserkennungsprodukte. Es wurde auch daran gearbeitet, Technologien für die vorausschauende Polizeiarbeit zu entwickeln, die ebenfalls wegen möglicher Verzerrungen kritisiert wurden.

"Lassen wir uns nicht täuschen"

Eva Blum-Dumontet von Privacy International sagte, die Firma habe den Begriff "Smart City" geprägt.

"Auf der ganzen Welt haben sie ein Modell oder eine Urbanisierung vorangetrieben, die sich auf Überwachungskameras und Sensoren stützte, die von den Polizeikräften verarbeitet wurden, dank der intelligenten Polizeiplattformen, die IBM ihnen verkaufte", sagte sie.

"Aus diesem Grund ist es für IBM sehr zynisch, sich jetzt umzudrehen und zu behaupten, sie wollen einen nationalen Dialog über den Einsatz von Technologie bei der Polizeiarbeit."

Sie fügte hinzu: "IBM versucht, sich zurückzuzahlen, weil sie maßgeblich zur Entwicklung der technischen Fähigkeiten der Polizei durch die Entwicklung sogenannter intelligenter Polizeiarbeitstechniken beigetragen haben. Lassen Sie sich jedoch nicht von ihrem jüngsten Schritt täuschen.

"Zuallererst war ihre Ankündigung mehrdeutig. Sie sprechen über die Beendigung der Gesichtserkennung für allgemeine Zwecke, was mich glauben lässt, dass dies nicht das Ende der Gesichtserkennung für IBM sein wird, sondern nur in Zukunft angepasst wird."

Die Algorithmic Justice League war eine der ersten Aktivistengruppen, die darauf hinwies, dass die Gesichtserkennungsdatensätze rassistische Vorurteile aufwiesen.

Eine 2019 vom Massachusetts Institute of Technology durchgeführte Studie ergab, dass keines der Gesichtserkennungstools von Microsoft, Amazon und IBM 100% genau war, wenn es darum ging, Männer und Frauen mit dunkler Haut zu erkennen.

Und eine Studie des US-amerikanischen National Institute of Standards and Technology ergab, dass Gesichtserkennungsalgorithmen bei der Identifizierung von afroamerikanischen und asiatischen Gesichtern im Vergleich zu kaukasischen Gesichtern weitaus weniger genau waren.

Amazon, dessen Erkennungssoftware von Polizeibehörden in den USA verwendet wird, ist einer der größten Akteure auf dem Gebiet, aber es gibt auch eine Vielzahl kleinerer Akteure wie Facewatch, das in Großbritannien tätig ist. Clearview AI, dem gesagt wurde, dass es keine Bilder von Facebook, Twitter und YouTube mehr verwenden soll, verkauft seine Software auch an US-Polizeikräfte.

Maria Axente, KI-Ethik-Expertin bei der Beratungsfirma PwC, sagte, die Gesichtserkennung habe "erhebliche ethische Risiken aufgezeigt, vor allem bei der Verbesserung bestehender Vorurteile und Diskriminierungen".

Er fügte hinzu: "Um Vertrauen aufzubauen und wichtige Probleme in der Gesellschaft zu lösen, sollte der Zweck ebenso wie der Gewinn ein Schlüsselmaß für die Leistung sein."