Unangebrachte Ängste vor einem „bösen“ ChatGPT verschleiern den wirklichen Schaden, der angerichtet wird | John Naughton

Öm 14. Februar, Kevin Roose, der New York Times Tech-Kolumnist, hatte ein zweistündiges Gespräch mit Bing, Microsofts ChatGPT-erweiterter Suchmaschine. Er ging aus der Erfahrung als scheinbar veränderter Mensch hervor, weil ihm der Chatbot unter anderem gesagt hatte, dass er gern Mensch wäre, destruktive Begierden hege und in ihn verliebt sei.

Die Abschrift des Gesprächszusammen mit dem Erscheinen von Roose auf dem Papier Das Tägliche Podcast, schürte sofort die moralische Panik, die bereits über die Auswirkungen von großen Sprachmodellen (LLMs) wie GPT-3.5 (das anscheinend Bing untermauert) und anderen „generativen KI“-Tools tobt, die jetzt lose auf der Welt sind. Diese werden verschiedentlich als chronisch nicht vertrauenswürdige Artefakte, als Beispiele für außer Kontrolle geratene Technologie oder als Vorläufer der sogenannten künstlichen allgemeinen Intelligenz (AGI) – also der Intelligenz auf menschlicher Ebene – angesehen und stellen daher eine Gefahr dar existenzielle Bedrohung zur Menschheit.

Begleitend zu dieser Hysterie ist a neuer Goldrausch, da Risikokapitalgeber und andere Investoren danach streben, sich an der Aktion zu beteiligen. Es scheint, dass all das Geld Löcher in sehr tiefe Taschen brennt. Zum Glück hat das seine komischen Seiten. Es deutet zum Beispiel darauf hin, dass Chatbots und LLMs Krypto und Web 3.0 als das nächste große Ding ersetzt haben, was wiederum bestätigt, dass die Tech-Industrie insgesamt die Aufmerksamkeitsspanne eines Molchs hat.

Das Seltsamste von allem ist jedoch, dass das Pandämonium durch das ausgelöst wurde, was einer seiner führenden Forscher genannt hat „stochastische Papageien“ – womit sie meint, dass LLM-basierte Chatbots Maschinen sind, die kontinuierlich vorhersagen, welches Wort statistisch am wahrscheinlichsten auf das vorherige folgt. Und das ist keine schwarze Magie, sondern ein Rechenprozess, der gut verstanden wird und wurde klar beschrieben von Prof. Murray Shanahan und elegant seziert des Informatikers Stephen Wolfram.

Wie können wir all diesen Wahnsinn verstehen? Ein guter Anfang ist es, den Menschen ihren unheilbaren Wunsch abzugewöhnen, Maschinen auf anthropozentrische Weise zu interpretieren. Seitdem Eliza von Joe Weizenbaum, scheinen Menschen, die mit Chatbots interagieren, den Computer humanisieren zu wollen. Dies war bei Eliza absurd – das einfach ein von seinem Schöpfer geschriebenes Skript ausführte – daher ist es vielleicht verständlich, dass Menschen, die jetzt mit ChatGPT interagieren – das anscheinend intelligent auf menschliche Eingaben reagieren kann – in dieselbe Falle tappen sollten. Aber es ist immer noch doof.

Auch die ständige Umbenennung von LLMs in „KI“ hilft nicht. Diese Maschinen sind sicherlich künstlich, aber um sie als „intelligent“ zu betrachten, scheint mir eine ziemlich verarmte Vorstellung von Intelligenz erforderlich zu sein. Einige Beobachter, wie der Philosoph Benjamin Bratton und der Informatiker Blaise Agüera y Arcas, sind jedoch weniger abweisend. “Es ist möglich,” sie räumen ein, „dass diese Arten von KI „intelligent“ – und in gewisser Weise sogar „bewusst“ sind – je nachdem, wie diese Begriffe definiert werden“, aber „keiner dieser Begriffe kann sehr nützlich sein, wenn sie stark anthropozentrisch definiert werden“. Sie argumentieren, dass wir Empfindungsfähigkeit von Intelligenz und Bewusstsein unterscheiden sollten und dass „die wahre Lehre für die Philosophie der KI darin besteht, dass die Realität die verfügbare Sprache überholt hat, um das zu analysieren, was bereits zur Verfügung steht. Ein präziseres Vokabular ist unerlässlich.“

Es ist. Vorläufig bleiben wir jedoch bei der Hysterie hängen. Ein Jahr ist eine schrecklich lange Zeit in dieser Branche. Denken Sie daran, dass die nächsten großen Dinge vor nur zwei Jahren Krypto/Web 3.0 und Quantencomputing sein sollten. Ersteres ist unter dem Gewicht seiner eigenen Absurdität zusammengebrochen, während Letzteres, wie die Kernfusion, immer noch knapp über dem Horizont liegt.

Bei Chatbots und LLMs ist das wahrscheinlichste Ergebnis, dass sie letztendlich als signifikante Erweiterung menschlicher Fähigkeiten angesehen werden (Tabellenkalkulationen auf Steroiden, wie es ein zynischer Kollege ausdrückte). Wenn das passiert, werden die Hauptnutznießer (wie in allen früheren Goldrauschen) die Anbieter der Spitzhacken und Schaufeln sein, die in diesem Fall die Cloud-Computing-Ressourcen sind, die von der LLM-Technologie benötigt werden und sich im Besitz großer Unternehmen befinden.

Ist es angesichts dessen nicht interessant, dass das einzige, worüber derzeit niemand spricht, die Umweltauswirkungen der riesige Menge an Rechenleistung benötigt, um LLMs zu schulen und zu betreiben? Eine Welt, die von ihnen abhängig ist, könnte gut fürs Geschäft sein, aber es wäre sicherlich schlecht für den Planeten. Vielleicht hatte Sam Altman, der CEO von OpenAI, dem Unternehmen, das ChatGPT ins Leben gerufen hat, das damals im Sinn er beobachtete dass „KI höchstwahrscheinlich zum Ende der Welt führen wird, aber in der Zwischenzeit wird es großartige Unternehmen geben“.

Was ich gelesen habe

Schmerzprofile
Soziale Medien sind eine der Hauptursachen für die Epidemie psychischer Erkrankungen bei Mädchen im Teenageralter ist eine beeindruckende Studie des Psychologen Jonathan Haidt.

Publikumsliebling
Was der Dichter, Playboy und Prophet der Seifenblasen uns immer noch lehren kann ist ein schöner Essay von Tim Harford, unter anderem über den Wahnsinn der Massen.

Tech-Lizenzgebühren
Was Mary, Queen of Scots, den Computersicherheitsfreaks von heute beibringen kann ist ein faszinierender Beitrag von Rupert Goodwins im Register.

source site-27