Die Gesichtserkennung zur Vorhersage von Kriminellen löst einen Streit über die KI-Vorurteile aus

Bildrechte
Getty Images

Die Behauptung einer US-Universität, sie könne Gesichtserkennung verwenden, um "Kriminalität vorherzusagen", hat die Debatte über rassistische Vorurteile in der Technologie wieder aufgenommen.

Forscher der Universität Harrisburg sagten, ihre Software könne "anhand eines Gesichtsbildes vorhersagen, ob jemand ein Verbrecher ist".

Die Software "soll den Strafverfolgungsbehörden helfen, Kriminalität zu verhindern", hieß es.

Aber 1.700 Wissenschaftler haben einen offenen Brief unterschrieben, in dem sie fordern, dass die Forschung unveröffentlicht bleibt.

Ein Harrisburger Forschungsmitglied, ein ehemaliger Polizeibeamter, schrieb: "Die Identifizierung der Kriminalität einer Person anhand ihres Gesichtsbildes wird Strafverfolgungsbehörden und anderen Geheimdiensten einen erheblichen Vorteil verschaffen, um das Auftreten von Straftaten zu verhindern."

Die Forscher behaupteten, ihre Software arbeite "ohne rassistische Vorurteile".

Die Organisatoren des offenen Briefes, der Koalition für kritische Technologie, sagten jedoch: "Solche Behauptungen beruhen auf nicht fundierten wissenschaftlichen Prämissen, Forschungen und Methoden, die zahlreiche Studien, die sich über unsere jeweiligen Disziplinen erstrecken, im Laufe der Jahre entlarvt haben.

"Diese diskreditierten Behauptungen tauchen immer wieder auf."

Die Gruppe verweist auf "unzählige Studien", die darauf hinweisen, dass Angehörige einiger ethnischer Minderheiten in der Strafjustiz härter behandelt werden, was die Daten darüber verzerrt, wie ein Verbrecher angeblich "aussieht".

Krittika D'Silva, Informatikforscherin an der Universität Cambridge, kommentierte die Kontroverse wie folgt: "Es ist unverantwortlich, wenn jemand glaubt, Kriminalität nur anhand eines Gesichtsbildes einer Person vorhersagen zu können.

"Dies hat zur Folge, dass Software zur Vorhersage von Straftaten ernsthaften Schaden anrichten kann – und es ist wichtig, dass Forscher und politische Entscheidungsträger diese Probleme ernst nehmen.

"Zahlreiche Studien haben gezeigt, dass Algorithmen für maschinelles Lernen, insbesondere Gesichtserkennungssoftware, rassistische, geschlechtsspezifische und altersbedingte Vorurteile aufweisen", sagte sie, wie beispielsweise eine Studie aus dem Jahr 2019, in der angegeben wird, dass die Gesichtserkennung bei Frauen und älteren sowie schwarzen oder asiatischen Personen schlecht funktioniert Menschen.

In der vergangenen Woche wurde ein Beispiel für einen solchen Fehler online viral, als ein KI-Upscaler, dem "Depixel" gegenüberstehen, den ehemaligen US-Präsidenten Barack Obama dabei weiß werden ließ.

Der Upscaler selbst erfindet einfach neue Gesichter basierend auf einem anfänglichen pixeligen Foto – nicht wirklich mit dem Ziel einer echten Nachbildung der realen Person.

Aber das Team hinter dem Projekt, Pulse, hat seitdem änderte ihr Papier zu sagen Es kann "einige Verzerrungen beleuchten" in einem der Werkzeuge, mit denen sie die Gesichter erzeugen.

Die New York Times hat diese Woche auch über den Fall eines Schwarzen berichtet Wer wurde der erste bekannte Fall von unrechtmäßiger Verhaftung aufgrund eines falschen Gesichtserkennungsalgorithmus Match.

Im Fall Harrisburg die Universität hatte gesagt, die Forschung würde in einem Buch von Springer Nature erscheinen, zu deren Titeln die angesehene Fachzeitschrift Nature gehört.

Springer sagte jedoch, das Papier sei "zu keinem Zeitpunkt" zur Veröffentlichung angenommen worden. Stattdessen wurde es einer Konferenz vorgelegt, deren Bericht Springer veröffentlichen wird – und die zum Zeitpunkt der Veröffentlichung des offenen Schreibens abgelehnt worden war.

"[Es] durchlief einen gründlichen Peer-Review-Prozess. Die Entscheidung des Serienredakteurs, das endgültige Papier abzulehnen, wurde am Dienstag, dem 16. Juni, getroffen und den Autoren am Montag, dem 22. Juni, offiziell mitgeteilt", heißt es in einer Erklärung des Unternehmens.

Die Universität Harrisburg hat unterdessen "auf Ersuchen der beteiligten Fakultät" eine eigene Pressemitteilung veröffentlicht.

Das Papier wurde aktualisiert, "um Bedenken auszuräumen", hieß es.

Und obwohl es die akademische Freiheit unterstützte, spiegelt die Forschung seiner Mitarbeiter "nicht unbedingt die Ansichten und Ziele dieser Universität wider".

Die Organisatoren der Koalition für kritische Technologien haben inzwischen gefordert, "dass alle Verlage künftig keine ähnlichen Studien mehr veröffentlichen müssen".