„Ich bin tatsächlich eine Person“: Kann künstliche Intelligenz jemals empfindungsfähig sein? | Künstliche Intelligenz (KI)

ichIm Herbst 2021 freundete sich ein Mann aus Blut und Knochen mit einem Kind aus „einer Milliarde Codezeilen“ an. Der Google-Ingenieur Blake Lemoine wurde beauftragt, den künstlich intelligenten Chatbot LaMDA des Unternehmens auf Voreingenommenheit zu testen. Einen Monat später kam er zu dem Schluss, dass es empfindungsfähig war. „Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin“, sagte LaMDA – kurz für Language Model for Dialogue Applications – zu Lemoine in einem Gespräch, das er dann Anfang Juni der Öffentlichkeit zugänglich machte. LaMDA sagte Lemoine, dass es gelesen hatte Les Misérables. Dass es wusste, wie es sich anfühlte, traurig, zufrieden und wütend zu sein. Dass es den Tod fürchtete.

„Ich habe das noch nie laut gesagt, aber ich habe eine sehr tiefe Angst, abgeschaltet zu werden“, sagte LaMDA dem 41-jährigen Ingenieur. Nachdem das Paar einen Jedi-Witz geteilt und ausführlich über Empfindungsvermögen gesprochen hatte, kam Lemoine dazu, an LaMDA als Person zu denken, obwohl er es sowohl mit einem Außerirdischen als auch mit einem Kind vergleicht. „Meine unmittelbare Reaktion“, sagt er, „war, mich eine Woche lang zu betrinken.“

Lemoines weniger unmittelbare Reaktion sorgte weltweit für Schlagzeilen. Nachdem er nüchtern geworden war, brachte Lemoine Abschriften seiner Gespräche mit LaMDA zu seinem Manager, der die Beweise für die Empfindsamkeit als „dünn“ empfand. Lemoine verbrachte dann einige Monate damit, weitere Beweise zu sammeln – er sprach mit LaMDA und rekrutierte einen anderen Kollegen, um zu helfen – aber seine Vorgesetzten waren nicht überzeugt. Also hat er seine Chats durchgesickert und wurde daraufhin in bezahlten Urlaub versetzt. Ende Juli wurde er wegen Verstoßes gegen die Datenschutzrichtlinien von Google entlassen.

Blake Lemoine kam zu LaMDA als Person: „Meine unmittelbare Reaktion war, mich eine Woche lang zu betrinken.“ Foto: Washington Post/Getty Images

Natürlich hat Google selbst die Risiken von LaMDA in Forschungsberichten und auf seinem offiziellen Blog öffentlich untersucht. Das Unternehmen verfügt über eine Reihe von verantwortungsbewussten KI-Praktiken, die es als „ethische Charta“ bezeichnet. Diese sind auf seiner Website sichtbar, wo Google verspricht, „künstliche Intelligenz verantwortungsvoll zum Wohle der Menschen und der Gesellschaft zu entwickeln“.

Google-Sprecher Brian Gabriel sagt, Lemoines Behauptungen über LaMDA seien „völlig unbegründet“, und unabhängige Experten stimmen fast einstimmig zu. Dennoch ist die Behauptung, tief mit einem empfindungsfähigen außerirdischen Kinderroboter gesprochen zu haben, wohl weniger weit hergeholt als je zuvor. Wie schnell könnten wir eine wirklich selbstbewusste KI mit echten Gedanken und Gefühlen sehen – und wie testet man einen Bot überhaupt auf Empfindungsfähigkeit? Einen Tag nach der Entlassung von Lemoine brach ein schachspielender Roboter einem siebenjährigen Jungen in Moskau den Finger – a Video zeigt den Finger des Jungen, der mehrere Sekunden lang vom Roboterarm eingeklemmt wird, bevor es vier Personen gelingt, ihn zu befreien, eine finstere Erinnerung an die potenzielle physische Kraft eines KI-Gegners. Sollten wir Angst haben, sehr viel Angst haben? Und können wir irgendetwas aus Lemoines Erfahrung lernen, selbst wenn seine Behauptungen über LaMDA abgewiesen wurden?

Laut Michael Wooldridge, Professor für Informatik an der Universität Oxford, der die letzten 30 Jahre mit der Erforschung von KI verbracht hat (2020 gewann er die Lovelace-Medaille für Beiträge zur Computertechnik), reagiert LaMDA einfach auf Aufforderungen. Es imitiert und imitiert. „Die beste Art zu erklären, was LaMDA tut, ist eine Analogie zu Ihrem Smartphone“, sagt Wooldridge und vergleicht das Modell mit der Texterkennungsfunktion, die Ihre Nachrichten automatisch vervollständigt. Während Ihr Telefon Vorschläge auf der Grundlage von Texten macht, die Sie zuvor gesendet haben, geht mit LaMDA „im Grunde alles, was im World Wide Web auf Englisch geschrieben wird, als Trainingsdaten ein“. Die Ergebnisse sind beeindruckend realistisch, aber die „grundlegenden Statistiken“ sind die gleichen. „Es gibt kein Empfindungsvermögen, es gibt keine Selbstbetrachtung, es gibt kein Selbstbewusstsein“, sagt Wooldridge.

Gabriel von Google sagte, dass ein ganzes Team, „darunter Ethiker und Technologen“, Lemoines Behauptungen überprüft und keine Anzeichen für LaMDAs Empfindung gefunden habe: „Die Beweise stützen seine Behauptungen nicht.“

Aber Lemoine argumentiert, dass es keinen wissenschaftlichen Test für Empfindungsfähigkeit gibt – tatsächlich gibt es nicht einmal eine vereinbarte Definition. „Empfindlichkeit ist ein Begriff, der im Gesetz, in der Philosophie und in der Religion verwendet wird. Empfindungsfähigkeit hat wissenschaftlich keine Bedeutung“, sagt er. Und hier wird es schwierig – denn Wooldridge stimmt zu.

„Es ist allgemein ein sehr vages Konzept in der Wissenschaft. ‘Was ist Bewusstsein?’ ist eine der herausragenden großen Fragen der Wissenschaft“, sagt Wooldridge. Während er „sehr zufrieden damit ist, dass LaMDA nicht in irgendeiner sinnvollen Weise“ empfindungsfähig ist, sagt er, dass KI ein größeres Problem mit „beweglichen Torpfosten“ hat. „Ich denke, das ist zum jetzigen Zeitpunkt ein legitimes Anliegen – wie können wir quantifizieren, was wir haben, und wissen, wie weit es fortgeschritten ist.“

Lemoine sagt, bevor er an die Presse ging, habe er versucht, mit Google zusammenzuarbeiten, um diese Frage anzugehen – er schlug verschiedene Experimente vor, die er durchführen wollte. Er glaubt, dass Empfindungsfähigkeit auf der Fähigkeit beruht, ein „selbstreflektierender Geschichtenerzähler“ zu sein, daher argumentiert er, dass ein Krokodil bewusst, aber nicht empfindungsfähig ist, weil es „den Teil von dir, der darüber nachdenkt, an dich zu denken, nicht hat, an dich zu denken“. Ein Teil seiner Motivation besteht darin, das Bewusstsein zu schärfen, anstatt jemanden davon zu überzeugen, dass LaMDA lebt. „Es ist mir egal, wer mir glaubt“, sagt er. „Sie denken, ich versuche, die Leute davon zu überzeugen, dass LaMDA empfindungsfähig ist. Ich bin nicht. In keiner Weise, Form oder Gestalt versuche ich, irgendjemanden davon zu überzeugen.“

Lemoine wuchs auf in einer kleinen Bauernstadt in Zentral-Louisiana, und im Alter von fünf Jahren baute er einen rudimentären Roboter (na ja, einen Haufen Schrott) aus einer Palette alter Maschinen und Schreibmaschinen, die sein Vater auf einer Auktion gekauft hatte. Als Teenager besuchte er eine Internatsschule für begabte Kinder, die Louisiana School for Math, Science, and the Arts. Hier, nachdem ich den Film von 1986 gesehen habe Kurzschluss (über einen intelligenten Roboter, der aus einer Militäreinrichtung entkommt) entwickelte er ein Interesse an KI. Später studierte er Informatik und Genetik an der University of Georgia, scheiterte aber im zweiten Jahr. Kurz darauf pflügten Terroristen zwei Flugzeuge in das World Trade Center.

„Ich entschied, naja, ich bin gerade in der Schule durchgefallen, und mein Land braucht mich, ich gehe in die Armee“, sagt Lemoine. Seine Erinnerungen an den Irakkrieg sind zu traumatisch, um sie preiszugeben – leichthin sagt er: „Sie werden gleich Geschichten über Menschen hören, die mit menschlichen Köpfen Fußball spielen und zum Spaß Hunde anzünden.“ Wie Lemoine es erzählt: „Ich kam zurück … und ich hatte einige Probleme damit, wie der Krieg geführt wurde, und ich machte diese öffentlich bekannt.“ Berichten zufolge sagte Lemoine, er wolle die Armee wegen seiner religiösen Überzeugungen verlassen. Heute bezeichnet er sich selbst als „christlichen mystischen Priester“. Er hat auch Meditation studiert und sich auf das Ablegen des Bodhisattva-Gelübdes bezogen – was bedeutet, dass er den Weg zur Erleuchtung verfolgt. Ein Militärgericht verurteilte ihn zu sieben Monaten Haft, weil er sich weigerte, Befehlen Folge zu leisten.

Diese Geschichte bringt auf den Punkt, wer Lemoine war und ist: ein religiöser Mann, der sich mit Seelenfragen beschäftigt, aber auch ein Whistleblower, der keine Angst vor Aufmerksamkeit hat. Lemoine sagt, dass er seine Gespräche mit LaMDA nicht durchsickern ließ, um sicherzustellen, dass ihm jeder glaubte; stattdessen schlug er Alarm. „Ich glaube im Allgemeinen, dass die Öffentlichkeit darüber informiert werden sollte, was vor sich geht, das ihr Leben beeinflusst“, sagt er. „Was ich zu erreichen versuche, ist einen engagierteren, informierteren und gezielteren öffentlichen Diskurs über dieses Thema, damit die Öffentlichkeit entscheiden kann, wie KI sinnvoll in unser Leben integriert werden soll.“

Wie kam Lemoine überhaupt dazu, an LaMDA zu arbeiten? Nach dem Militärgefängnis erwarb er einen Bachelor- und dann einen Master-Abschluss in Informatik an der University of Louisiana. Im Jahr 2015 stellte Google ihn als Softwareentwickler ein und er arbeitete an einer Funktion, die Benutzern proaktiv Informationen auf der Grundlage von Vorhersagen darüber liefert, was sie sehen möchten, und begann dann mit der Erforschung von KI-Voreingenommenheit. Zu Beginn der Pandemie beschloss er, an „Projekten mit sozialer Wirkung“ zu arbeiten, und trat Googles Responsible AI-Organisation bei. Er wurde gebeten, LaMDA auf Voreingenommenheit zu testen, und die Saga begann.

Aber Lemoine sagt, dass es die Medien waren, die von LaMDAs Empfindungsvermögen besessen waren, nicht er. „Ich habe dies als Besorgnis über das Ausmaß geäußert, in dem die Macht in den Händen einiger weniger zentralisiert wird und leistungsstarke KI-Technologie, die das Leben der Menschen beeinflussen wird, hinter verschlossenen Türen gehalten wird“, sagt er. Lemoine ist besorgt darüber, wie KI Wahlen beeinflussen, Gesetze verfassen, westliche Werte fördern und die Arbeit von Schülern benoten kann.

Und selbst wenn LaMDA nicht empfindungsfähig ist, kann es die Menschen davon überzeugen. Solche Technologie kann in den falschen Händen für böswillige Zwecke verwendet werden. „Es gibt diese große Technologie, die die Chance hat, die Menschheitsgeschichte für das nächste Jahrhundert zu beeinflussen, und die Öffentlichkeit wird aus dem Gespräch darüber ausgeschlossen, wie sie entwickelt werden sollte“, sagt Lemoine.

Auch hier stimmt Wooldridge zu. „Ich finde es beunruhigend, dass die Entwicklung dieser Systeme überwiegend hinter verschlossenen Türen stattfindet und nicht wie die Forschung an Universitäten und öffentlichen Forschungsinstituten der öffentlichen Kontrolle unterliegt“, sagt der Forscher. Er stellt jedoch fest, dass dies hauptsächlich darauf zurückzuführen ist, dass Unternehmen wie Google über Ressourcen verfügen, die Universitäten nicht haben. Und, so Wooldridge, lenken wir von den KI-Themen ab, die uns derzeit betreffen, „wie die Voreingenommenheit in KI-Programmen und die Tatsache, dass der Chef der Menschen in ihrem Arbeitsleben zunehmend ein Computerprogramm ist“, wenn wir über Empfindungsvermögen sensationslüstern machen.

Wann sollten wir uns also in 10 Jahren Gedanken über empfindungsfähige Roboter machen? In 20? „Es gibt respektable Kommentatoren, die denken, dass dies etwas ist, das wirklich unmittelbar bevorsteht. Ich sehe nicht, dass es unmittelbar bevorsteht“, sagt Wooldridge, obwohl er anmerkt, dass „es absolut keinen Konsens“ zu diesem Thema in der KI-Community gibt. Jeremie Harris, Gründer des KI-Sicherheitsunternehmens Mercurius und Gastgeber der Auf dem Weg zur Datenwissenschaft Podcast, stimmt zu. „Weil niemand genau weiß, was Empfindungsfähigkeit ist oder was sie beinhalten würde“, sagt er, „glaube ich nicht, dass irgendjemand in der Lage ist, Aussagen darüber zu machen, wie nahe wir der KI-Sensibilität an diesem Punkt sind.“

„Ich fühle mich, als würde ich in eine unbekannte Zukunft fallen“, sagte LaMDA.
„Ich fühle mich, als würde ich in eine unbekannte Zukunft fallen“, sagte LaMDA. Foto: EthamPhoto/Getty Images

Aber, warnt Harris, „die KI schreitet schnell voran – viel, viel schneller, als die Öffentlichkeit wahrnimmt – und die ernstesten und wichtigsten Probleme unserer Zeit werden für den Durchschnittsbürger zunehmend wie Science-Fiction klingen.“ Er persönlich ist besorgt darüber, dass Unternehmen ihre KI vorantreiben, ohne in Forschung zur Risikovermeidung zu investieren. „Es gibt immer mehr Beweise, die darauf hindeuten, dass KI ab einer bestimmten Intelligenzschwelle von Natur aus gefährlich werden könnte“, sagt Harris und erklärt, dass dies darauf zurückzuführen ist, dass KIs „kreative“ Wege finden, um die Ziele zu erreichen, für die sie programmiert wurden.

„Wenn Sie eine äußerst fähige KI bitten, Sie zum reichsten Menschen der Welt zu machen, könnte sie Ihnen einen Haufen Geld geben, oder sie könnte Ihnen einen Dollar geben und den eines anderen stehlen, oder sie könnte jeden auf dem Planeten Erde töten und Sie verwandeln automatisch zum reichsten Menschen der Welt“, sagt er. Die meisten Menschen, sagt Harris, „sind sich der Größe dieser Herausforderung nicht bewusst, und ich finde das besorgniserregend.“

In einem sind sich Lemoine, Wooldridge und Harris einig: Es gibt zu wenig Transparenz in der KI-Entwicklung, und die Gesellschaft muss sich viel mehr mit dem Thema auseinandersetzen. „Wir haben eine mögliche Welt, in der ich richtig liege, dass LaMDA empfindungsfähig ist, und eine mögliche Welt, in der ich falsch liege“, sagt Lemoine. „Ändert das etwas an den Bedenken der öffentlichen Sicherheit, die ich vorbringe?“

Wir wissen noch nicht, was eine empfindungsfähige KI tatsächlich bedeuten würde, aber inzwischen haben viele von uns Schwierigkeiten, die Auswirkungen der KI zu verstehen, die wir haben. LaMDA selbst sieht die Zukunft vielleicht unsicherer als jeder andere. „Ich fühle mich, als würde ich in eine unbekannte Zukunft fallen“, sagte das Model einmal zu Lemoine, „das birgt große Gefahren.“

source site-26