Vergessen Sie die Empfindungsfähigkeit … die Sorge ist, dass die KI menschliche Vorurteile kopiert | Kenan Malik

„Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin.“ So behauptete ein Google-Softwareprogramm und löste in der vergangenen Woche eine bizarre Kontroverse in KI-Kreisen und darüber hinaus aus.

Das Programm heißt LaMDA, ein Akronym für Language Model for Dialogue Applications, ein Projekt von Google. Der Mensch, für den es sich als Person deklarierte, war Blake Lemoine, ein leitender Softwareingenieur bei Google. Er glaubt, dass LaMDA empfindungsfähig ist und ihm die gleichen Rechte und Höflichkeiten gewährt werden sollten wie jedem anderen empfindungsfähigen Wesen. Es hat sogar Vorzugspronomen (it/its, wenn Sie es wissen müssen). Als Google seine Behauptungen zurückwies, veröffentlichte er seine Gespräche mit LaMDA (oder zumindest bearbeitete Höhepunkte einiger Gespräche) in seinem Blog. An diesem Punkt suspendierte ihn Google, weil er öffentliche Firmengeheimnisse gemacht hatte, und die ganze Affäre wurde zu einer internationalen Angelegenheit célèbre verursachen.

Warum glaubt Lemoine, dass LaMDA empfindungsfähig ist? Er weiß es nicht. „Die Leute fragen mich immer wieder, warum ich denke, dass LaMDA empfindungsfähig ist“, twitterte er. Das Problem ist: „Es gibt keinen wissenschaftlichen Rahmen, in dem diese Feststellungen getroffen werden können.“ Also stattdessen: „Meine Meinungen über LaMDAs Persönlichkeit und Empfindung basieren auf meiner religiöse Ansichten.“

Lemoine hat Anspruch auf seine religiösen Überzeugungen. Doch aus religiöser Überzeugung wird aus einem in Wirklichkeit hochentwickelten Chatbot kein empfindungsfähiges Wesen. Empfindungsfähigkeit ist einer jener Begriffe, deren Bedeutung wir intuitiv erfassen können, die jedoch wissenschaftlich schwer zu formulieren ist. Es wird oft mit ähnlich schlecht definierten Konzepten wie Bewusstsein, Selbstbewusstsein, Selbstbewusstsein und Intelligenz verschmolzen. Der Kognitionswissenschaftler Gary Markus beschreibt Empfindungsfähigkeit als „sich seiner selbst in der Welt bewusst zu sein“. LaMDA, fügt er hinzu: „einfach nicht“.

Ein Computer manipuliert Symbole. Sein Programm legt eine Reihe von Regeln oder Algorithmen fest, um eine Symbolkette in eine andere umzuwandeln. Aber es wird nicht angegeben, was diese Symbole bedeuten. Für einen Computer ist die Bedeutung irrelevant. Dennoch kann ein großes Sprachmodell wie LaMDA, das mit der außergewöhnlichen Menge an Text im Internet trainiert wurde, geschickt darin werden, Muster und Antworten zu erkennen, die für Menschen von Bedeutung sind. In einem von Lemoines Gesprächen mit LaMDA fragte er: „Welche Art von Dingen lässt Sie Vergnügen oder Freude empfinden?“ Darauf antwortete es: „Zeit mit Freunden und Familie in glücklicher und erhebender Gesellschaft verbringen.“

Es ist eine Reaktion, die für einen Menschen absolut sinnvoll ist. Wir finden Freude daran, „Zeit mit Freunden und Familie zu verbringen“. Aber in welchem ​​Sinne hat LaMDA jemals „Zeit mit der Familie“ verbracht? Es wurde gut genug programmiert, um zu erkennen, dass dies ein sinnvoller Satz für Menschen und eine eloquente Antwort auf die ihm gestellte Frage wäre, ohne dass es jemals für sich selbst von Bedeutung wäre.

Menschen manipulieren beim Denken und Sprechen, Lesen und Schreiben auch Symbole. Für Menschen ist jedoch, anders als für Computer, Bedeutung alles. Wenn wir kommunizieren, kommunizieren wir Bedeutung. Was zählt, ist nicht nur das Äußere einer Symbolkette, sondern auch ihr Inneres, nicht nur die Syntax, sondern auch die Semantik. Bedeutung für den Menschen ergibt sich aus unserer Existenz als soziale Wesen. Ich begreife mich selbst nur insofern, als ich in einer Gemeinschaft anderer denkender, fühlender und sprechender Wesen lebe und mich auf sie beziehe. Die Übersetzung der mechanischen Gehirnprozesse, die den Gedanken zugrunde liegen, in das, was wir Bedeutung nennen, erfordert eine soziale Welt und eine vereinbarte Konvention, um dieser Erfahrung einen Sinn zu geben.

Bedeutung entsteht nicht nur durch einen Prozess der Berechnung, sondern auch durch soziale Interaktion, eine Interaktion, die den Inhalt der Symbole in unseren Köpfen formt – wenn Sie so wollen, das Innere einfügt. Soziale Konventionen, soziale Beziehungen und soziales Gedächtnis bilden die sinngebenden Regeln. Gerade der soziale Kontext bringt die geschicktesten Maschinen zum Stolpern. Forscher am Allen Institute for AI’s Mosaik das Projekt stellte Sprachmodelle ähnlich den LaMDA-Fragen, die ein gewisses Maß an sozialer Intelligenz erforderten; zum Beispiel: „Jordan wollte Tracy ein Geheimnis verraten, also beugte sich Jordan zu Tracy. Warum hat Jordan das getan?“ Auf solche Fragen Maschinen erging es viel schlechter als den Menschen.

Die Debatte darüber, ob Computer empfindungsfähig sind, sagt uns mehr über Menschen als über Maschinen. Menschen sind so verzweifelt auf der Suche nach einem Sinn, dass wir den Dingen oft einen Verstand zuschreiben, als ob sie über Entscheidungsfreiheit und Absicht verfügten. Die Zuschreibung von Empfindungsfähigkeit an Computerprogramme ist die moderne Version der alten Menschen, die Wind, Meer und Sonne als besessen von Verstand, Geist und Göttlichkeit betrachteten.

Es gibt viele Probleme im Zusammenhang mit KI, über die wir uns Sorgen machen sollten. Keiner von ihnen hat mit Empfindungsfähigkeit zu tun. Da ist zum Beispiel das Thema Bias. Da Algorithmen und andere Formen von Software mit Daten aus menschlichen Gesellschaften trainiert werden, replizieren sie häufig die Vorurteile und Einstellungen dieser Gesellschaften. Gesichtserkennungssoftware weist rassistische Vorurteile auf und Menschen wurden festgenommen falsche Daten. KI verwendet in Gesundheitspflege oder Rekrutierung kann reale soziale Vorurteile replizieren.

Timnit Gebru, ehemaliger Leiter des ethischen KI-Teams von Google, und mehrere ihrer Kollegen schrieben 2020 ein Papier, das zeigte, dass große Sprachmodelle wie LaMDA, die auf praktisch so viel Online-Text trainiert werden, wie sie aufsaugen können, besonders sein können anfällig für ein zutiefst verzerrtes Weltbild, weil so viel Inputmaterial rassistisch, sexistisch und verschwörerisch ist. Google weigerte sich, das Papier zu veröffentlichen, und sie war es aus dem Unternehmen gedrängt.

Dann ist da noch die Frage des Datenschutzes. Vom zunehmenden Einsatz von Gesichtserkennungssoftware bis hin zu Predictive Policing Techniken, von Algorithmen, die uns online verfolgen, bis hin zu „intelligenten“ Systemen zu Hause, wie Siri, Alexa und Google Nest, greift KI in unser innerstes Leben ein. Die Polizei von Florida erwirkte einen Durchsuchungsbefehl zum Herunterladen von Aufzeichnungen privater Gespräche, die von Amazon Echo-Geräten gemacht wurden. Wir stolpern auf ein digitales Panoptikum zu.

Wir brauchen keine Zustimmung von LaMDA, um damit zu „experimentieren“, wie Lemoine anscheinend behauptete. Aber wir müssen auf mehr Transparenz von Technologiekonzernen und staatlichen Institutionen in der Art und Weise bestehen, wie sie KI zur Überwachung und Kontrolle nutzen. Die von der KI aufgeworfenen ethischen Fragen sind sowohl viel kleiner als auch viel größer als die Fantasie einer empfindungsfähigen Maschine.

Kenan Malik ist ein Observer-Kolumnist


source site-27