Menschenähnliche Programme missbrauchen unsere Empathie – selbst Google-Ingenieure sind nicht immun | Emily M Bender

Ter Google-Ingenieur Blake Lemoine sprach nicht offiziell für das Unternehmen, als er behauptete, dass Googles Chatbot LaMDA war empfindungsfähig, aber Lemoines Missverständnis zeigt die Risiken des Entwerfens von Systemen auf eine Weise, die Menschen davon überzeugt, dass sie echte, unabhängige Intelligenz in einem Programm sehen. Wenn wir glauben, dass texterzeugende Maschinen empfindungsfähig sind, welche Maßnahmen könnten wir auf der Grundlage des von ihnen generierten Textes ergreifen? Dies führte dazu, dass Lemoine geheime Abschriften des Programms preisgab, was zu seiner aktuellen Suspendierung aus der Organisation führte.

Google lehnt sich entschieden an diese Art von Design an, wie bei Sundar Pichai, CEO von Alphabet, zu sehen ist Demo desselben Chatbots bei Google I/O im Mai 2021, wo er LaMDA aufforderte, mit der Stimme von Pluto zu sprechen und einige lustige Fakten über den Ex-Planeten zu teilen. Da Google plant, dies zu einer Kerntechnologie für Verbraucher zu machen, unterstreicht die Tatsache, dass einer seiner eigenen Ingenieure getäuscht wurde, die Notwendigkeit, dass diese Systeme transparent sind.

LaMDA (sein Name steht für „Sprachmodell für Dialoganwendungen“) ist ein Beispiel für ein sehr großes Sprachmodell oder ein Computerprogramm, das entwickelt wurde, um wahrscheinliche Wortfolgen vorherzusagen. Da es mit enormen Mengen an (meist englischem) Text „trainiert“ wird, kann es scheinbar kohärente englische Texte zu einer Vielzahl von Themen erstellen. Ich sage „scheinbar zusammenhängend“, weil die einzige Aufgabe des Computers darin besteht, immer und immer wieder vorherzusagen, welche Gruppe von Buchstaben als nächstes kommt. Diese Sequenzen werden erst dann sinnvoll, wenn wir Menschen sie lesen.

Das Problem ist, dass wir uns nicht selbst helfen können. Es mag den Anschein haben, als würden wir, wenn wir die Sprache anderer verstehen, einfach Botschaften entschlüsseln. Tatsächlich geht es bei unserer Fähigkeit, die kommunikativen Handlungen anderer Menschen zu verstehen, im Wesentlichen darum, sich ihren Standpunkt vorzustellen und dann aus den von ihnen verwendeten Worten abzuleiten, was sie zu kommunizieren beabsichtigen. Wenn wir also auf scheinbar kohärenten Text stoßen, der von einer Maschine kommt, wenden wir denselben Ansatz an, um ihm einen Sinn zu geben: Wir stellen uns reflexartig vor, dass ein Verstand die Wörter mit einer kommunikativen Absicht produziert hat.

Joseph Weizenbaum bemerkte diesen Effekt in den 1960er Jahren im Verständnis der Menschen von Eliza, seinem Programm, das einen Rogerianischen Psychotherapeuten nachahmen sollte. Damals war die Funktionsweise des Programms jedoch so einfach, dass Informatiker genau sehen konnten, wie es seine Antworten formte. Mit LaMDA verstehen Ingenieure die Trainingssoftware, aber das trainierte System beinhaltet die Auswirkungen der Verarbeitung von 1,5 Billionen Wörtern Text. Bei dieser Größenordnung ist es unmöglich zu überprüfen, wie das Programm das alles dargestellt hat. Dadurch sieht es so aus, als hätte es „emergente Verhaltensweisen“ (Fähigkeiten, die nicht einprogrammiert wurden). was von jemandem, der es glauben will, leicht als Beweis für künstliche Intelligenz interpretiert werden kann.

Das ist meiner Meinung nach Lemoine passiert, der erfuhr, welche Eingabeaufforderungen LaMDA dazu bringen würden, die Wortketten auszugeben, die er als Zeichen der Empfindung interpretiert. Ich denke, das ist auch Blaise Agüera y Arcas (ein Ingenieur und Vizepräsident bei Google) passiert, der im Economist schrieb diese Woche fühlte er sich, als wäre er „mit etwas intelligentem sprechen” bei der Interaktion mit LaMDA. Google hat Lemoine wegen seiner Äußerungen beurlaubt, sich aber nicht von den Äußerungen von Agüera y Arcas distanziert.

Der Zugang zu LaMDA ist vorerst eingeschränkt, aber die Vision, die Pichai letztes Jahr präsentierte, beinhaltete die Nutzung ersetzen die vertraute Websuchoberfläche – im Wesentlichen als eine Art Concierge, der Fragen beantwortet. Als Chirag Shah und ich schrieb kürzlich, die Verwendung von Sprachmodellen anstelle von Suchmaschinen schadet der Informationskompetenz. Ein Sprachmodell synthetisiert Wortketten, um Antworten auf Anfragen zu geben, kann aber nicht auf Informationsquellen verweisen. Das bedeutet, dass der Benutzer diese Quellen nicht auswerten kann. Gleichzeitig werden uns die wiederkehrenden Gesprächsantworten dazu ermutigen, uns einen Geist vorzustellen, in dem es keinen gibt, und einen, der angeblich von Googles angeblicher Fähigkeit durchdrungen ist, „Organisieren Sie die Informationen der Welt“.

Wir wissen nicht einmal, was „die Informationen der Welt“, wie sie von LaMDA indiziert werden, bedeutet. Google hat uns nicht im Detail mitgeteilt, welche Daten das Programm verwendet. Es scheint größtenteils aus dem Web zu stammen, mit begrenzter oder keiner Qualitätskontrolle. Das System wird aus diesen undokumentierten Daten Antworten fabrizieren, während es als maßgeblich wahrgenommen wird.

Die Gefahr darin sehen wir bereits in Googles „hervorgehobene Ausschnitte”-Funktion, die mit Hilfe eines Sprachmodells Zusammenfassungen von Antworten aus Webseiten erstellt. Es hat absurde, beleidigende und gefährliche Antworten gegeben, wie zum Beispiel zu sagen, Kannada sei das hässlichste Sprache Indiensdass die ersten „Menschen“, die in Amerika ankamen, waren europäische Siedlerund, wenn jemand einen Anfall hat, all die Dinge zu tun, die der Gesundheitsdienst der Universität von Utah speziell vorsieht warnt die Leute davor, es zu tun.

Deshalb müssen wir hier Transparenz einfordern, insbesondere bei Technologien, die menschenähnliche Schnittstellen wie Sprache verwenden. Für jedes automatisierte System müssen wir wissen, wofür es trainiert wurde, welche Trainingsdaten verwendet wurden, wer diese Daten ausgewählt hat und zu welchem ​​Zweck. Nach den Worten der KI-Forscher Timnit Gebru und Margaret Mitchell ist die Nachahmung menschlichen Verhaltens eine „helle Linie“ – eine klare Grenze, die nicht überschritten werden darf – in der Entwicklung von Computersoftware. Wir behandeln Interaktionen mit Dingen, die wir als menschlich oder menschenähnlich wahrnehmen, unterschiedlich. Bei Systemen wie LaMDA sehen wir ihre potenziellen Gefahren und die dringende Notwendigkeit, Systeme so zu gestalten, dass sie unsere Empathie oder unser Vertrauen nicht missbrauchen.


source site-27