Die große Idee: Sollen Roboter die Verbrechensbekämpfung übernehmen? | Bücher

SEin Aufsichtsrat von Francisco hat kürzlich dafür gestimmt, dass seine Polizei mit tödlichem Sprengstoff ausgerüstete Roboter einsetzen darf – zuvor zurückverfolgen einige Wochen später. In Amerika hat die Abstimmung eine heftige Debatte über die Militarisierung der Polizei ausgelöst, aber sie wirft für uns alle grundlegende Fragen über die Rolle von Robotern und KI bei der Verbrechensbekämpfung, wie polizeiliche Entscheidungen getroffen werden, und tatsächlich über den eigentlichen Zweck unseres Verbrechers auf Justizsysteme. Im Vereinigten Königreich arbeiten Beamte eher nach dem Grundsatz „Polizeiarbeit durch Zustimmung“ als durch Gewalt. Aber laut der Kriminalitätserhebung 2020 für England und Wales ist das Vertrauen der Öffentlichkeit in die Polizei von 62 % im Jahr 2017 auf 55 % gesunken. Eine aktuelle Umfrage fragte Londoner, ob die Met institutionell sexistisch und rassistisch sei. Knapp zwei Drittel antworteten entweder mit „wahrscheinlich“ oder „auf jeden Fall“.

Dies ist vielleicht nicht überraschend angesichts der hochkarätigen Verbrechensfälle von Polizisten wie Wayne Couzens, der Sarah Everard ermordet hat, und , der sich kürzlich zu 49 Straftaten schuldig bekannte, darunter Vergewaltigung und sexuelle Übergriffe.

Der neue Kommissar Mark Rowley sagte, dass „wir uns auf schmerzhaftere Geschichten vorbereiten müssen“ und warnte, dass in den kommenden Monaten voraussichtlich zwei oder drei Beamte pro Woche wegen strafrechtlicher Anklagen vor Gericht erscheinen werden. Aber was ist, wenn das Problem der Polizeiarbeit über die sogenannten „faulen Äpfel“ hinausgeht, sogar über die Kultur und Politik, die Diskriminierung ungehindert gedeihen lässt? Was wäre, wenn es auch in die Art und Weise eingebettet ist, wie Menschen tatsächlich Entscheidungen treffen?

Die Polizeiarbeit erfordert jeden Tag Hunderte von Urteilen, oft unter Bedingungen extremen Drucks und Unsicherheit: Wer und wo soll überwacht werden, welche Fälle und Opfer müssen priorisiert werden, wem soll geglaubt werden und welchen Ermittlungslinien soll gefolgt werden? Wie Malcolm Gladwell in Blink erklärt, Diese schnellen Entscheidungen – oft als „Ahnungen“ bezeichnet – basieren auf unseren individuellen sozialen und emotionalen Erfahrungen, aber auch auf Vorurteilen, die wir alle aus der Gesellschaft verinnerlicht haben, wie Rassismus, Sexismus, Homophobie und Transphobie.

Könnte künstliche Intelligenz daher einen gerechteren und effizienteren Weg für die Polizeiarbeit des 21. Jahrhunderts bieten? Es gibt im Großen und Ganzen zwei Arten von KI: „Narrow AI“, die spezifische Aufgaben wie Bilderkennung ausführen kann, und „Allzweck-KI“, die weitaus komplexere Urteile und Entscheidungen trifft, die sich über alle Arten von Domänen erstrecken. Allzweck-KI stützt sich auf Deep Learning – sie nimmt riesige Datenmengen auf und verwendet sie, um die Leistung kontinuierlich anzupassen und zu verbessern, und hat das Potenzial, immer mehr Aufgaben zu übernehmen, die Menschen bei der Arbeit erledigen. ChatGPT, ein hochmodernes Sprachverarbeitungsmodell, das in Sekundenschnelle Forschungsarbeiten, Artikel und sogar Gedichte schreiben kann, ist das jüngste Beispiel dafür, das die öffentliche Vorstellungskraft anregt.

KI kann bereits Millionen von Bildern durchsuchen und riesige Mengen von Social-Media-Beiträgen analysieren, um potenzielle Verdächtige zu identifizieren und zu lokalisieren. Auf der Grundlage anderer Arten von Daten könnte es auch dabei helfen, die Zeiten und Orte vorherzusagen, an denen Verbrechen am wahrscheinlichsten vorkommen. In bestimmten Fällen könnte es Hypothesen testen und Fehler herausfiltern, sodass sich die Beamten auf die Untersuchungslinien konzentrieren können, die durch die verfügbaren Beweise am besten gerechtfertigt sind.

Schnellere, fairere, evidenzbasierte Entscheidungen zu einem Bruchteil der Kosten klingen sicherlich attraktiv, aber frühe Forschung mahnt zur Vorsicht. Das sogenannte „Predictive Policing“ verwendet historische Informationen, um mögliche zukünftige Täter und Opfer zu identifizieren, aber Studien haben gezeigt, dass die Quelldaten für diese Art der Modellierung mit Vorurteilen durchsetzt sein können, was beispielsweise zu Ergebnissen führt, die People of Color als unverhältnismäßig kategorisieren. gefährlich“ oder „gesetzlos“. Eine Rand Corporation aus dem Jahr 2016 lernen kam zu dem Schluss, dass Chicagos „Heatmap“ der erwarteten Gewaltverbrechen die Waffengewalt nicht reduzierte, aber zu mehr Verhaftungen in einkommensschwachen und ethnisch gemischten Vierteln führte.

Genauer gesagt ist KI darauf ausgelegt, die Ziele zu erreichen, die wir ihr gesetzt haben. So warnte Prof. Stuart Russell in seinem Reith-Vorlesungen 2021müssen alle Aufgaben sorgfältig in einem Rahmen definiert werden, der der Menschheit zugute kommt, damit nicht wie in The Sorcerer’s Apprentice der Befehl zum Wasserholen zu einer unaufhaltsamen Flut führt.

Irgendwann lernen wir vielleicht, Vorurteile zu vermeiden und perverse Konsequenzen zu vermeiden, aber wird das ausreichen? Wie Prof. Batya Friedman von der Informationsschule der University of Washington festgestellt hat: „Gerechtigkeit ist mehr als eine richtige Entscheidung. Es ist ein Prozess, bei dem Menschen füreinander Zeugnis ablegen, einander anerkennen, füreinander Rechenschaft ablegen, einander wiederherstellen.“

Anstatt zu diskutieren, was KI in Zukunft leisten kann oder nicht kann, sollten wir uns fragen, was wir von unserem Straf- und Justizsystem wollen und wie KI uns helfen könnte, dies zu erreichen. Es ist unwahrscheinlich, dass unsere Ambitionen nur dadurch erreicht werden, dass Beamte durch Computer ersetzt werden – aber denken Sie daran, was in einem Mensch-Maschine-Team erreicht werden könnte, in dem jeder vom anderen lernt und einen Mehrwert für den anderen schafft. Was wäre, wenn wir Menschen der gleichen Prüfung unterziehen würden, die wir zu Recht auf KI anwenden, und unsere Vorurteile und Annahmen einer ständigen und konstruktiven Herausforderung aussetzen würden? Was wäre, wenn KI bei sich wiederholenden und ressourcenintensiven Aufgaben helfen könnte und Polizeibeamten das geben könnte, was Prof. Eric Topol, der über die KI-Revolution in der Medizin schreibt, das „Geschenk der Zeit“ genannt hat? Dies würde es ihnen ermöglichen, sowohl Opfer als auch Angeklagte mit der Würde zu behandeln, die nur Menschen verkörpern können und die alle Mitglieder der Gesellschaft verdienen.

Vielleicht würde dies das Vertrauen und die Zustimmung der Öffentlichkeit gewinnen, auf die die Polizei wirklich angewiesen ist.

Jo Callaghan ist eine Strategin, die sich auf KI am Arbeitsplatz konzentriert, und Autorin des Krimidebüts „In the Blink of an Eye“, erschienen bei Simon & Schuster.

Weiterlesen

Leben 3.0: Menschsein im Zeitalter der künstlichen Intelligenz von Max Tegmark (Pinguin, £10.99)

Blinken von Malcolm Gladwell (Pinguin, £10,99)

Die politische Philosophie der KI von Mark Coeckelbergh (Polity, 16,99 £)

source site-27