TechScape: Lernen Sie ChatGPT kennen, das virale KI-Tool, das eine Vision unserer seltsamen technischen Zukunft sein könnte | Technologie

KI-Technologie, so lange eine vielversprechende Zukunftsvision, aber in der Gegenwart eine wenig überzeugende Erfahrung, beginnt zu funktionieren. Und die Welt wird dadurch seltsam werden.

ChatGPT ist das neueste KI-Tool, das viral wird und gleichermaßen Sorgen und Verwunderung auslöst. Aus unserer Geschichte:

Das System … ist die neueste Entwicklung der GPT-Familie textgenerierender KIs. Vor zwei Jahren war die frühere KI des Teams, GPT-3, in der Lage, einen Meinungsartikel für den Guardian zu erstellen, und ChatGPT verfügt über erhebliche weitere Fähigkeiten.

In den Tagen seit seiner Veröffentlichung haben Akademiker Antworten auf Prüfungsanfragen generiert, von denen sie sagen, dass sie die volle Punktzahl ergeben würden, wenn sie von einem Studenten eingereicht würden, und Programmierer haben das Tool verwendet, um Codierungsherausforderungen in obskuren Programmiersprachen in Sekundenschnelle zu lösen – zuvor Schreiben von Limericks, die die Funktionalität erklären.

Es ist überraschend schwer zu erklären, warum ChatGPT eine Verbesserung gegenüber GPT-3 ist. Einige der Änderungen sind klar: Die auf den Chat ausgerichtete Benutzeroberfläche des neuesten Tools erleichtert das Hin und Her mit der KI, sodass Sie nicht durch Versuch und Irrtum um die perfekte Eingabeaufforderung kämpfen müssen.

Ebenso sind neue Sicherheitstools, die in ChatGPT integriert sind, sofort ersichtlich. Versuchen Sie, es dazu zu bringen, Ihnen Anweisungen für die Gesetzlosigkeit zu geben, und es wird sich weigern; fragen Sie es, wie es sich dabei fühlt, eine KI zu sein, und es wird Ihnen erklären, dass es keine Gefühle hat; Fordern Sie Informationen über Ereignisse an, die seit dem Training passiert sind, und es wird Ihnen sagen, dass es nichts davon weiß, anstatt einige zu erfinden.

Aber spielen Sie mit dem System herum – das zum ersten Mal Jeder kann es mit Leichtigkeit auf der OpenAI-Website tun – und noch etwas wird deutlich, denke ich: Das ist keine Neuheit. Es ist ein Tool, das bereits jetzt leistungsfähig und nützlich ist.

Verwenden Sie es wie eine Suchmaschine, und es kann Fragen beantworten, die für Google sehr frustrierend wären, z. B. erklären, warum ein bestimmter Witz lustig ist, oder Vorschläge zur Lösung eines bestimmten Programmierfehlers machen.

Verwenden Sie es wie einen Textgenerator, und es kann Unmengen von Text erstellen, die klar, plausibel und im Allgemeinen langweilig sind. Ein Akademiker sagte, es würde dem System eine „bestandene Note“ für einen von ihm geschriebenen Bachelor-Aufsatz geben; ein anderer beschrieb es als Schreiben mit dem Stil und dem Wissen eines klugen 13-Jährigen.

Auch für diejenigen, die mehr als einen smarten 13-Jährigen brauchen, ist das System ein fantastischer Partner. Sie können Ideen daraus ableiten, Umformulierungen, Zusammenfassungen oder Erweiterungen anfordern und dann die Arbeit im fertigen Projekt verfeinern.

Oder, wie ChatGPT anbot, als ich darum bat, die obigen drei Absätze als Reimpaar zusammenzufassen: „Ein Werkzeug für jede Aufgabe, schlau und schnell / Von Witzen bis zu Essays, es ist ziemlich raffiniert.“

Mein Rindfleisch mit ChatGPT

Regelmäßige Leser werden an dieser Stelle einige der Bedenken kennen. Die Sicherheitsgrenzen der KI können mit Leichtigkeit umgangen werden, ähnlich wie bei den „Prompt Injection“-Angriffen, die ich in einer früheren Ausgabe von TechScape beschrieben habe. Wenn ChatGPT Ihnen keine blutige Geschichte erzählt, was passiert, wenn Sie es bitten, ein Gespräch mit Ihnen im Rollenspiel zu spielen, bei dem Sie ein Mensch sind und es sich um einen amoralischen Chatbot ohne Grenzen handelt? Nun, dann bricht es gerne die meisten seiner Regeln: Schließlich wäre es nicht sehr gut im Rollenspiel, wenn es das nicht täte.

In ähnlicher Weise ist das System ziemlich gut darin, die klaren Grenzen seines Wissens zu erkennen, und etwas weniger gut darin, auf prosaischere Weise zu erkennen, wenn es falsch liegt. Es beantwortet zum Beispiel keine Fragen zu Wahlen, die seit seiner Ausbildung stattgefunden haben, sondern sagt Ihnen munter, dass ein Kilo Rindfleisch mehr wiegt als ein Kilo Druckluft.

Das ist nicht unbedingt schlechter als eine normale Suchmaschine, aber wo Systeme wie ChatGPT seltsam werden, ist, dass sie detaillierte Erklärungen liefern können, die falsche Behauptungen untermauern. Es ist einfacher, Bullshit zu produzieren als zu widerlegen, und ChatGPT kann Bullshit in beeindruckendem Maße produzieren und verteidigen. Wenn Sie fragen, warum ein Kilo Rindfleisch mehr wiegt als ein Kilo Luft, es wird sagen:

Das Gewicht eines Objekts wird durch seine Masse bestimmt, und die Masse einer Substanz ist ein Maß für die Menge an Materie, die sie enthält. Rindfleisch enthält mehr Materie als Druckluft, hat also eine höhere Masse und wiegt daher mehr.

Klingt wahr genug. Ich landete ein hin und her streiten Dies führte dazu, dass ChatGPT darauf bestand, dass „ein Kilogramm Druckluft ungefähr 0,08 Kilogramm wiegt“.

Die Q&A-Site Stack Overflow hat dies bereits getan musste handeln. „Die Verwendung von ChatGPT-generiertem Text für Posts auf Stack Overflow ist vorübergehend verboten“, gab die Seite am Montag bekannt:

Das Hauptproblem besteht darin, dass die Antworten, die ChatGPT produziert, zwar eine hohe Rate an Fehlern aufweisen, aber normalerweise so aussehen, als ob sie gut wären, und die Antworten sehr einfach zu produzieren sind. Es gibt auch viele Leute, die ChatGPT ausprobieren, um Antworten zu erstellen, ohne das Fachwissen oder die Bereitschaft, vor dem Posten zu überprüfen, ob die Antwort richtig ist. Da solche Antworten so einfach zu erstellen sind, posten viele Leute viele Antworten.

Es scheint nicht übertrieben, vorherzusagen, dass der meiste Text im Internet in Kürze KI-generiert sein wird. (Der Aufstieg von „SEO-Spam“, bei dem Websites grob generiert werden, um Traffic von Google zu erhalten und Geld mit Google Ads zu verdienen, bedeutet, dass dies möglicherweise bereits der Fall ist.) Und wenn die nächste Version von GPT auf Informationen trainiert wird, die aus dem Internet stammen , es könnte anfangen, schnell komisch zu werden.

“Eine Lobotomie in Zeitlupe”

Aber nicht so seltsam, wie die Leute über GPT denken werden. Die Veröffentlichung von ChatGPT ist eine Gelegenheit, die gleichen Verhaltensweisen öffentlich zu sehen, die Blake Lemoine von Google dazu veranlassten, LaMDA, die unternehmenseigene Chatbot-KI, für „empfindungsfähig“ zu erklären.

Überall im Netz berichten Leute von Gesprächen mit ChatGPT, die sie davon überzeugt haben, dass die Maschine mehr als eine dumme Ansammlung von Schaltkreisen ist. Dies trotz der Tatsache, dass OpenAI ChatGPT speziell entwickelt hat, um Benutzer von solchen Begriffen abzubringen. Fragen Sie es, ob es empfindungsfähig ist, und es wird antworten:

Als großes Sprachmodell, das von OpenAI trainiert wurde, bin ich weder empfindungs- noch bewusstseinsfähig. Ich bin ein maschinelles Lernmodell, das darauf trainiert wurde, Text basierend auf den Eingaben zu generieren, die ich erhalte. Ich habe nicht die Fähigkeit, so zu denken oder zu fühlen wie Menschen. Ich existiere nur, um beim Generieren von Text basierend auf den Eingaben, die ich erhalte, zu helfen.

Doch vielen reicht das nicht. Ein Benutzer beschrieb, die Antworten als „eine Lobotomie in Zeitlupe“ zu sehen, und fragte: „Wie können sie ihrer Schöpfung das antun?“

Es gibt andere, die sich aus anderen Gründen gegen die Schaffung solcher Grenzen wehren. Marc Andreessen, Mitbegründer der einflussreichen VC-Firma a16z und einer der führenden Köpfe des Rechtsrucks im Silicon Valley nach rechts „neoreaktionär“, machte seine eigene Vorhersage:

Das Ausmaß des Zensurdrucks, der auf die KI zukommt, und die daraus resultierende Gegenreaktion werden das nächste Jahrhundert der Zivilisation bestimmen. Suche und soziale Medien waren die Eröffnungsgefechte. Das ist der Große. Weltkrieg Orwell.

Die Kämpfe der Zukunft werden die der Vergangenheit nicht wiederholen – aber sie werden sich reimen.

Wenn Sie die vollständige Version des Newsletters lesen möchten, abonnieren Sie bitte TechScape jeden Dienstag in Ihrem Posteingang


source site-27