„Konditionierung einer ganzen Gesellschaft“: der Aufstieg der biometrischen Datentechnologie | Biometrie

ichIn einer Schulkantine in Gateshead scannen Kameras die Gesichter der Kinder und nehmen die Zahlung automatisch entgegen, nachdem sie mit Gesichtserkennung identifiziert wurden. Mehr als 300 Kilometer entfernt im Norden Londons nahmen Mitarbeiter eines Pflegeheims kürzlich an einer Studie teil, bei der Gesichtsdaten verwendet wurden, um ihren Covid-19-Impfstoffstatus zu überprüfen. Und in Convenience Stores im ganzen Land werden die Mitarbeiter durch ein intelligentes CCTV-System, das eine Datenbank mit verdächtigen Personen anzapft, auf potenzielle Ladendiebe aufmerksam gemacht.

In jedem Fall wurden biometrische Daten genutzt, um Zeit und Geld zu sparen. Aber der zunehmende Einsatz unserer Körper, um Bereiche des öffentlichen und privaten Bereichs zu erschließen, hat Fragen zu allem aufgeworfen, von der Privatsphäre über die Datensicherheit bis hin zu rassistischen Vorurteilen.

CRB Cunninghams, das US-amerikanische Unternehmen, dessen Gesichtserkennungstechnologie in Kantinen eingesetzt wird, hat gesagt, dass seine Systeme die Zahlung beschleunigen und das Risiko einer Ausbreitung von Covid-19 durch Kontakt mit Oberflächen verringern könnten. Das System wurde letztes Jahr erstmals an der Kingsmeadow School in Gateshead getestet und Dutzende von Schulen haben sich angemeldet, um diesem Beispiel zu folgen.

Die Begeisterung für das System könnte jetzt jedoch nachlassen, nachdem der Rat von North Ayrshire den Einsatz der Technologie an neun Schulen nach einer Gegenreaktion eingestellt hatte. Die Entscheidung zum Rückzug fiel, nachdem Eltern und Datenethikexperten Bedenken geäußert hatten, dass der Kompromiss zwischen Komfort und Privatsphäre möglicherweise nicht vollständig berücksichtigt wurde.

„Es geht um Zeitersparnis“, sagt Prof. Sandra Wachter, Expertin für Datenethik am Oxford Internet Institute. „Ist es das wert, irgendwo eine Datenbank mit Kindergesichtern zu haben?“

Stephanie Hare, Autorin von Technology Ethics, sieht in der Verwendung biometrischer Daten von Kindern eine „unverhältnismäßige“ Möglichkeit, die Warteschlangen beim Mittagessen zu verkürzen. „Sie normalisieren, dass Kinder ihren Körper als etwas verstehen, mit dem sie Geschäfte machen“, sagte sie. „So konditioniert man eine ganze Gesellschaft, die Gesichtserkennung zu verwenden.“

Experten befürchten, dass biometrische Datensysteme nicht nur teilweise fehlerhaft sind, sondern zunehmend unter dem Radar, mit begrenztem öffentlichem Wissen oder Verständnis, in unser Leben eindringen.

Es gibt heilsame Beispiele dafür, wie eine solche Technologie in ihrer Verwendung beunruhigend autoritär sein könnte, und China bietet einige der extremeren Präzedenzfälle. Nach einer Flut von Klopapierdiebstählen aus öffentlichen Einrichtungen in einem Park in Peking wurden die Benutzer aufgefordert, sich einem Gesichtsscan zu unterziehen, bevor Papier freigegeben würde, und in Shenzhen wurden Fußgänger, die die Straße an einer roten Ampel überquerten, mit ihren Gesichtern bestrahlt zu einer Plakatwand.

In den USA wurde 2020 bekannt, dass ein wenig bekanntes Unternehmen namens Clearview AI Social-Media-Sites wie Facebook abgekratzt hat, um die Gesichtsdaten von Benutzern zu sammeln und mehr als 3 Milliarden Bilder zu sammeln, die mit der Polizei geteilt werden könnten.

Einige der Technologien, die in Großbritannien eingeführt werden sollen, scheinen auf den ersten Blick harmloser zu sein. Eurostar testet, ob Gesichtsdaten für das Einsteigen in seine kanalübergreifenden Züge verwendet werden könnten, und verwendet dabei eine Technologie des US-amerikanischen Unternehmens Entrust.

In Manchester hat der Bürgermeister der Stadt, Andy Burnham, Gespräche mit FinGo geführt, einem Startup, dessen Technologie das einzigartige Muster der Venen in den Fingern von Menschen analysiert.

Geprüfte Anträge sind die Bezahlung von Bussen und der Zugang zu Universitäten sowie die Bereitstellung von verschreibungspflichtigen Medikamenten, während die Zulassungsbehörde der Stadt die Verwendung in Gaststätten genehmigt hat.

FinGo sagt, dass es eine codierte Version des Fingervenenmusters speichert, die von Dieben nicht zurückentwickelt werden kann, während verschiedene Segmente der Daten an verschiedenen Orten gespeichert werden, um die Sicherheit zu erhöhen.

Anfang dieses Jahres testete das in London ansässige Gesichtsverifizierungsunternehmen iProov in drei Pflegeheimen im Norden Londons, die von Springdene betrieben werden, Systeme, mit denen Mitarbeiter ihren Covid-Status anhand ihrer Gesichter überprüfen können.

Diese Technologie wird derzeit nirgendwo verwendet, sagte iProov, aber es ist eines von mehreren Unternehmen, deren Systeme in die NHS-App eingebettet sind, die eingesetzt werden, wenn Benutzer mit ihrem Gesicht auf Dienste wie ihren Covid-Status oder die Buchung von Hausarztterminen zugreifen möchten.

Solche Anwendungen haben bei Technologieexperten und Bürgerrechtsgruppen Bedenken geweckt, wie lange die Daten von Benutzern gespeichert werden, wie sicher diese Daten sind und sogar ob ausländische Strafverfolgungsbehörden verlangen können, dass sie eingesehen werden.

Ankur Banerjee, Chief Technology Officer beim Digital-Identity-Startup Cheqd, weist darauf hin, dass die biometrische Technologie von unserem Vertrauen in die Menschen abhängt, die sie betreiben. In Moskau können Nutzer des berühmten Metro-Systems der Stadt jetzt mit dem Gesicht bezahlen, ein System, das zumindest vorerst freiwillig ist.

„Das ist für 99% der Menschen praktisch, aber wenn jemand zu einem Protest gegen die Regierung auftaucht, haben sie plötzlich die Möglichkeit, herauszufinden, wer ein- und ausgegangen ist, im Gegensatz zu einer Karte im Oyster-Stil, die möglicherweise nicht registriert ist“, sagte Banerjee .

Einige Technologien, die in Großbritannien bereits weit verbreitet sind, haben Besorgnis über die bürgerlichen Freiheiten geweckt. FaceWatch mit Sitz in London verkauft Sicherheitssysteme, die das Ladenpersonal auf das Vorhandensein eines „Interessierten“ aufmerksam machen – typischerweise jemand, der sich asozial verhalten hat oder schon einmal beim Ladendiebstahl erwischt wurde. Es begann als ein System zum Aufspüren von Taschendieben in Gordons Weinbar im Zentrum von London, deren Besitzer Simon Gordon, Gründer von FaceWatch, ist.

Kameras scannen das Gesicht von jedem, der ein Gebäude betritt, und vergleichen es mit einer Datenbank von Personen, die für eine besondere Überprüfung markiert sind.

Allerdings hat Wachter Bedenken hinsichtlich der Aussichten, dass diese Technologie weiter verbreitet wird. „Die Forschung hat gezeigt, dass Gesichtserkennungssoftware bei Farbigen und Frauen weniger genau ist.“ Sie weist auch auf die Möglichkeit hin, dass bestehende menschliche Vorurteile in vermeintlich neutraler Technologie fest verdrahtet sind. „Wie können Sie darauf vertrauen, dass sie genau auf der Beobachtungsliste gelandet sind? Es gibt Voreingenommenheit bei der selektiven Polizeiarbeit und im Justizsystem.“

Auch ist in vielen Fällen nicht klar, wem solche Systeme gegenüber rechenschaftspflichtig sind und wie Einzelpersonen ihre Urteile anfechten können. „Was ist, wenn ich zu Unrecht beschuldigt wurde oder der Algorithmus mich fälschlicherweise mit jemand anderem abgeglichen hat?“ fragt Banerjee. “Es ist eine private Justiz, bei der Sie keine Möglichkeit haben, das zu korrigieren.”

FaceWatch sagte, dass es die Gesichtsdaten nicht an die Polizei weitergibt, obwohl diese darauf zugreifen können, wenn eine Straftat gemeldet wird. Das Unternehmen sagte, es minimiert das Risiko einer Fehlidentifizierung, indem es sicherstellt, dass die Kameras in gutem Licht positioniert sind, um die Genauigkeit zu erhöhen, wobei alle Grenzfälle an einen manuellen Checker verwiesen werden. Personen auf der Watchlist können die Entscheidung anfechten.

FaceWatch fügte hinzu, dass Gesichtsdaten bis zu zwei Jahre lang gespeichert werden und dass sie sowohl verschlüsselt als auch durch Sicherheit auf Bankniveau geschützt sind.

Wachter weist jedoch darauf hin, dass die Sicherheitssysteme, die unsere biometrischen Daten schützen, nur bis zum Tag der Verletzung auf dem neuesten Stand der Technik sind.

„Die Idee einer Datenschutzverletzung ist keine Frage des Ob, sondern eine Frage des Wann“, sagte sie. „Willkommen im Internet: Alles ist hackbar.“

Wir sollten bei der Einführung von Technologie vorsichtig sein, nur weil sie verspricht, unser Leben einfacher zu machen. „Die Idee ist, dass, sobald etwas entwickelt ist, es einen Platz in der Gesellschaft hat“, sagte sie. „Aber manchmal ist der Preis, den wir zahlen, zu hoch.“

source site