ChatGPT kann Witze erzählen und sogar Artikel schreiben. Aber nur Menschen können seinen flüssigen Bullshit erkennen | Kenan Malik

EINDa die Fähigkeiten der Technologie zur Verarbeitung natürlicher Sprache weiter voranschreiten, gibt es einen wachsenden Hype um das Potenzial von Chatbots und Konversations-KI-Systemen. Ein solches System, ChatGPT, behauptet, in der Lage zu sein, sich an natürlichen, menschenähnlichen Gesprächen zu beteiligen und sogar nützliche Informationen und Ratschläge zu geben. Es gibt jedoch berechtigte Bedenken hinsichtlich der Einschränkungen von ChatGPT und anderen Konversations-KI-Systemen und ihrer Fähigkeit, menschliche Intelligenz und Interaktion wirklich zu replizieren.

Nein, das habe ich nicht geschrieben. Es wurde tatsächlich von ChatGPT selbst geschrieben, einem Konversations-KI-Softwareprogramm, nachdem ich es gebeten hatte, „einen Eröffnungsabsatz zu einem Artikel zu erstellen, der skeptisch gegenüber den Fähigkeiten von ChatGPT im Stil von Kenan Malik ist“. Ich könnte über die plumpe Prosa streiten, aber es ist ein beeindruckender Versuch. Und es ist nicht schwer zu erkennen, warum es so etwas gegeben hat Aufregungin der Tat Hypeüber die neueste Version des Chatbots seit der Veröffentlichung vor einer Woche.

Gefüttert mit riesigen Mengen an von Menschen erstelltem Text sucht ChatGPT nach statistischen Regelmäßigkeiten in diesen Daten, lernt, welche Wörter und Phrasen mit anderen verknüpft sind, und kann so vorhersagen, welche Wörter in einem bestimmten Satz als nächstes kommen sollten und wie Sätze zusammenpassen. Das Ergebnis ist eine Maschine, die die menschliche Sprache überzeugend nachahmen kann.

Diese Mimikry-Fähigkeit ermöglicht es ChatGPT zu schreiben Aufsätze und Poesieausdenken Witzeformulieren Codeund Fragen beantworten ob für ein Kind oder einen Experten. Und es so gut zu machen, dass viele in der vergangenen Woche sowohl gefeiert als auch in Panik geraten sind. „Aufsätze sind tot“ schrieb Der Kognitionswissenschaftler Tim Kietzmann erweitert die Sichtweise von vielen Akademikern. Andere behaupten, dass es so sein wird Schluss mit Google als Suchmaschine. Und das Programm selbst glaubt, dass es dazu in der Lage sein könnte Menschen ersetzen in Jobs vom Versicherungsagenten bis zum Gerichtsschreiber.

Und doch der Chatbot, der erstklassige Aufsätze schreiben kann wird es dir auch sagen dass, wenn eine Frau in neun Monaten ein Kind zur Welt bringen kann, neun Frauen in einem Monat ein Kind zur Welt bringen können; das eine Kilo Rindfleisch wiegt mehr als ein Kilo Druckluft; und dieses zerkleinerte Glas ist nützlich Gesundheitsergänzungsmittel. Es kann Tatsachen erfinden und reproduzieren viele der Vorurteile der menschlichen Welt, auf der es trainiert wird.

ChatGPT kann so überzeugend falsch liegen Paketüberflusseine Plattform für Entwickler, um Hilfe beim Schreiben von Code zu erhalten, gesperrte Benutzer durch das Posten von Antworten, die vom Chatbot generiert wurden. „Das Hauptproblem“, schrieben die Mods, „besteht darin, dass die Antworten, die ChatGPT produziert, zwar eine hohe Rate an Fehlern aufweisen, aber normalerweise so aussehen, als wären sie gut.“ Oder, wie ein anderer Kritiker es ausdrücktees ist ein fließender Bullshitter.

Einige dieser Probleme werden mit der Zeit behoben. Jede Konversation mit ChatGPT wird Teil der Datenbank, die zur Verbesserung des Programms verwendet wird. Die nächste Iteration, GPT-4, steht nächstes Jahr an und wird überzeugender sein und weniger Fehler machen.

Jenseits einer solchen inkrementellen Verbesserung liegt jedoch auch ein grundlegendes Problem, dem jede Form von künstlicher Intelligenz gegenübersteht. Ein Computer manipuliert Symbole. Sein Programm spezifiziert eine Reihe von Regeln, mit denen eine Zeichenkette in eine andere umgewandelt oder statistische Muster erkannt werden können. Es wird jedoch nicht angegeben, was diese Symbole oder Muster bedeuten. Für einen Computer ist die Bedeutung irrelevant. ChatGPT „weiß“ (zumindest meistens), was Menschen sinnvoll erscheint, aber nicht, was für sich selbst sinnvoll ist. Es ist, in den Worten des Kognitionswissenschaftlers Gary Marcus, ein „Mimik, die nicht weiß, wovon sie spricht“.

Menschen manipulieren beim Denken und Sprechen, Lesen und Schreiben auch Symbole. Für Menschen ist jedoch, anders als für Computer, Bedeutung alles.

Wenn wir kommunizieren, kommunizieren wir Bedeutung. Was zählt, ist nicht nur das Äußere einer Symbolkette, sondern auch ihr Inneres, nicht nur die Syntax, sondern auch die Semantik. Bedeutung für den Menschen entsteht durch unsere Existenz als soziale Wesen, verkörpert und eingebettet in die Welt. Ich begreife mich selbst nur insofern, als ich in einer Gemeinschaft anderer denkender, fühlender und sprechender Wesen lebe und mich auf sie beziehe.

Natürlich lügen, manipulieren, fühlen sich angezogen und fördern Verschwörungstheorien, die verheerende Folgen haben können. All dies gehört auch dazu, soziale Wesen zu sein. Aber wir erkennen Menschen als unvollkommen an, als potenziell hinterhältig, als Bullshitter oder Manipulatoren.

Maschinen neigen wir jedoch dazu, entweder als objektiv und unvoreingenommen oder als potenziell böse zu betrachten, wenn sie empfindungsfähig sind. Wir vergessen oft, dass Maschinen voreingenommen oder einfach falsch sein können, weil sie nicht so wie Menschen in der Welt verankert sind und weil sie von Menschen programmiert und anhand von Menschen gesammelter Daten trainiert werden müssen.

Wir leben auch in einer Zeit, in der die Oberfläche oft mehr zählt als die Bedeutungstiefe. Ein Zeitalter, in dem Politiker viel zu oft Politik machen, nicht weil sie notwendig oder prinzipiell richtig ist, sondern weil sie in Fokusgruppen gut ankommt. Ein Zeitalter, in dem wir oft den sozialen Kontext des Handelns oder Redens der Menschen ignorieren und von der Wörtlichkeit geblendet werden. Ein Zeitalter, in dem Schüler, in den Worten des Schriftstellers und Pädagogen John Warner, „belohnt werden für … das Wiederkäuen vorhandener Informationen“ in einem System, das „Privilegien[s] oberflächliche Korrektheit“ statt „entwickeln[ing] ihre Fähigkeiten zum Schreiben und kritischen Denken“. Dass ChatGPT so leicht scheint, erstklassige Aufsätze zu schreiben, schlägt er vor, „ist hauptsächlich ein Kommentar zu dem, was wir schätzen“.

Nichts davon soll die bemerkenswerte technische Errungenschaft von ChatGPT leugnen oder wie erstaunlich es sich anfühlt, damit zu interagieren. Es wird sich zweifellos zu einem nützlichen Werkzeug entwickeln, das dazu beiträgt, sowohl das menschliche Wissen als auch die Kreativität zu verbessern. Aber wir müssen den Durchblick bewahren. ChatGPT zeigt nicht nur die Fortschritte in der KI auf, sondern auch ihre Grenzen. Es hilft auch, Licht sowohl auf die Natur der menschlichen Erkenntnis als auch auf den Charakter der heutigen Welt zu werfen.

Unmittelbarer wirft ChatGPT auch Fragen darüber auf, wie man mit Maschinen umgeht, die viel besser im Bullshit und im Verbreiten von Fehlinformationen sind als Menschen selbst. Angesichts der Schwierigkeiten bei der Bekämpfung menschlicher Fehlinformationen sollten diese Fragen nicht aufgeschoben werden. Wir sollten uns von der Überzeugungskraft von ChatGPT nicht so hypnotisieren lassen, dass wir die wirklichen Probleme vergessen, die solche Programme aufwerfen können.

Kenan Malik ist ein Observer-Kolumnist


source site-31