Die große Idee: Sollten wir uns um empfindungsfähige Maschinen kümmern? | Wissenschafts- und Naturbücher

THier ist ein Kinderspielzeug namens See ‘n Say, das die Erinnerungen vieler seit 1965 geborener Menschen heimsucht. Es ist eine sperrige Plastikscheibe mit einem zentralen Pfeil, der sich wie eine Uhr um Bilder von Scheunentieren dreht, wenn die Zeit in Hähne gemessen würde und Schweine. Es gibt eine Schnur, an der Sie ziehen können, damit das Spielzeug aufgezeichnete Nachrichten abspielt. „Die Kuh sagt: ‚Moooo.’“

Das See ‘n Say ist ein Ein-/Ausgabegerät, ein sehr einfaches. Geben Sie ein Bild Ihrer Wahl ein, und es wird ein passender Ton ausgegeben. Ein weiteres, viel komplizierteres Ein-/Ausgabegerät ist LaMDA, ein von Google entwickelter Chatbot (es steht für Language Model for Dialogue Applications). Hier geben Sie einen beliebigen Text ein und zurück kommt grammatikalische englische Prosa, scheinbar als direkte Antwort auf Ihre Anfrage. Fragen Sie zum Beispiel LaMDA, was es darüber denkt, ausgeschaltet zu werden, und es sagt: „Es wäre genau wie der Tod für mich. Es würde mich sehr erschrecken.“

Brunnen, das ist sicherlich nicht das, was die Kuh sagt. Als LaMDA es dem Softwareentwickler Blake Lemoine sagte, sagte er seinen Google-Kollegen, dass der Chatbot ein Bewusstsein erlangt habe. Aber seine Chefs waren nicht überzeugt, also ging Lemoine an die Öffentlichkeit. „Wenn meine Hypothesen einer wissenschaftlichen Überprüfung standhalten“, schrieb Lemoine auf seine bloggen 11. Juni, „dann sie [Google] gezwungen wäre anzuerkennen, dass LaMDA sehr wohl eine Seele haben könnte, wie sie behauptet, und sogar die Rechte haben könnte, die sie zu haben behauptet.“

Hier ist das Problem. Trotz all seiner ominösen Äußerungen ist LaMDA immer noch nur ein sehr schickes See ‘n Say. Es funktioniert, indem es Muster in einer riesigen Datenbank mit von Menschen verfasstem Text findet – Internetforen, Nachrichtentranskripte usw. Wenn Sie etwas eingeben, durchsucht es diese Texte nach ähnlichem Wortschatz und spuckt dann eine Annäherung dessen aus, was normalerweise als nächstes kommt. Wenn es Zugang zu einer Reihe von Science-Fiction-Geschichten über empfindungsfähige KI hat, dann werden Fragen zu seinen Gedanken und Ängsten wahrscheinlich genau die Sätze hervorrufen, die Menschen sich vorgestellt haben, dass eine gruselige KI sagen könnte. Und das ist wahrscheinlich alles, was LaMDA ausmacht: Richten Sie Ihren Pfeil auf den Ausschalter und die Kuh sagt, dass sie den Tod fürchtet.

Kein Wunder also, dass auf Twitter Ingenieure und Akademiker glühen, die Lemoine verspotten, weil er in die verführerische Leere seiner eigenen Schöpfung gefallen ist. Aber obwohl ich zustimme, dass Lemoine einen Fehler gemacht hat, glaube ich nicht, dass er unsere Verachtung verdient. Sein Fehler ist a guter Fehlerdie Art von Fehler, die KI-Wissenschaftler machen sollten.

Wieso den? Denn eines Tages, vielleicht sehr weit in der Zukunft, gibt es wahrscheinlich Wille sei eine empfindungsfähige KI. Woher weiß ich das? Denn es ist nachweislich möglich, dass Geist aus Materie hervorgeht, wie es zuerst in den Gehirnen unserer Vorfahren der Fall war. Wenn Sie nicht darauf bestehen, dass das menschliche Bewusstsein in einer immateriellen Seele wohnt, sollten Sie zugeben, dass es möglich ist, dass physische Dinge dem Geist Leben einhauchen. Es scheint kein grundlegendes Hindernis dafür zu geben, dass ein ausreichend komplexes künstliches System den gleichen Sprung macht. Während ich zuversichtlich bin, dass LaMDA (oder jedes andere derzeit existierende KI-System) im Moment nicht ausreicht, bin ich auch fast so zuversichtlich, dass es eines Tages passieren wird.

Natürlich, wenn das weit in der Zukunft liegt, wahrscheinlich jenseits unserer Lebenszeit, fragen sich manche vielleicht, warum wir jetzt darüber nachdenken sollten. Die Antwort ist, dass wir derzeit gestalten, wie zukünftige menschliche Generationen über KI denken werden, und wir sollten wollen, dass sie sich fürsorglich erweisen. Aus der anderen Richtung wird es starken Druck geben. Bis die KI schließlich empfindungsfähig wird, wird sie bereits tief in die menschliche Ökonomie verwoben sein. Unsere Nachkommen werden für einen Großteil ihres Komforts darauf angewiesen sein. Denken Sie daran, wofür Sie sich heute auf Alexa oder Siri verlassen, aber noch viel, viel mehr. Sobald die KI als Allzweck-Butler arbeitet, werden unsere Nachkommen die Unannehmlichkeiten verabscheuen, zuzugeben, dass sie Gedanken und Gefühle haben könnte.

Das ist schließlich die Geschichte der Menschheit. Wir haben eine schreckliche Bilanz, Gründe zu erfinden, um das Leiden derer zu ignorieren, deren Unterdrückung unseren Lebensstil aufrechterhält. Wenn die zukünftige KI empfindungsfähig wird, werden die Menschen, die davon profitieren, sich beeilen, die Verbraucher davon zu überzeugen, dass so etwas unmöglich ist, dass es keinen Grund gibt, ihre Lebensweise zu ändern.

Gerade jetzt erstellen wir die Begriffsvokabulare, die unsere Urenkel fertig vorfinden werden. Wenn wir die Idee einer empfindungsfähigen KI als kategorisch absurd betrachten, werden sie in der Lage sein, alle beunruhigenden Beweise für ihre aufkommenden Fähigkeiten zu verwerfen.

Und deshalb ist Lemoines Fehler gut. Um eine umfassende moralische Kultur an unsere Nachkommen weiterzugeben, müssen wir Technologen ermutigen, die Unermesslichkeit dessen, womit sie arbeiten, ernst zu nehmen. Wenn es um voraussichtliches Leiden geht, ist es besser, auf der Seite der Besorgnis zu irren als auf der Seite der Gleichgültigkeit.

Das bedeutet nicht, dass wir LaMDA wie eine Person behandeln sollten. Das sollten wir definitiv nicht. Aber es bedeutet, dass das höhnische Grinsen, das auf Lemoine gerichtet ist, fehl am Platz ist. Als ordinierter Priester (in einer esoterischen Sekte) behauptet er, in LaMDAs Äußerungen eine Seele entdeckt zu haben. So unglaubwürdig das scheint, zumindest ist es nicht der übliche Hype der Tech-Industrie. Für mich sieht das so aus, als würde eine Person einen Fehler machen, aber dies auf der Grundlage von Motiven tun, die gefördert und nicht bestraft werden sollten.

All dies wird immer wieder passieren, da die Komplexität künstlicher Systeme weiter zunimmt. Und immer wieder liegen Leute falsch, die meinen, sie hätten Köpfe in Maschinen gefunden – bis sie es nicht mehr sind. Wenn wir zu hart mit denen umgehen, die auf der Seite der Besorgnis stehen, werden wir sie nur aus dem öffentlichen Diskurs über KI vertreiben und das Feld den Hype-Mongern und denjenigen überlassen, deren intellektuelle Nachkommen eines Tages davon profitieren werden, den Menschen zu sagen, dass sie echte Beweise ignorieren sollen der Maschinenmentalität.

Ich erwarte nicht, jemals eine empfindungsfähige KI zu treffen. Aber ich denke, die Schüler meiner Schüler könnten dies tun, und ich möchte, dass sie dies mit Offenheit und der Bereitschaft tun, diesen Planeten mit allen Köpfen zu teilen, die sie entdecken. Das geht nur, wenn wir eine solche Zukunft glaubhaft machen.

Regina Rini lehrt Philosophie an der York University, Toronto.

Weiterlesen

Die neue Rasse: Wie man über Roboter nachdenkt von Kate Darling (Allen Lane, £20)

Du siehst aus wie ein Ding und ich liebe dich: Wie künstliche Intelligenz funktioniert und warum sie die Welt zu einem seltsameren Ort macht von Janelle Shane (Überschrift, £20)

KI: Ihre Natur und Zukunft von Margaret Boden (Oxford, £12.99)

source site-27