Die Guardian-Ansicht zu ChatGPT: ein unheimlich guter menschlicher Imitator | Redaktion

PDas wahrscheinlich beste Softwareprogramm, um sich als Mensch auszugeben, das jemals für die Öffentlichkeit freigegeben wurde, ist ChatGPT. Seine Anziehungskraft ist so groß, dass der Chef des Unternehmens für künstliche Intelligenz hinter dem Chatbot OpenAI innerhalb weniger Tage nach seiner Einführung in der vergangenen Woche getwittert dass sich 1 Million Menschen angemeldet hatten. Facebook und Spotify brauchten Monate, um dieses Maß an Engagement zu erreichen. Sein Reiz liegt auf der Hand: ChatGPT kann Witze generieren, Bachelor-Aufsätze erstellen und Computercode aus einer kurzen Schreibaufforderung erstellen.

Software, die flüssige und kohärente Prosa produziert, ist nichts Neues. Der Vorgänger von ChatGPT, der Generative Pretrained Transformer 3 (GPT-3), konnte das. Beide wurden auf eine unvorstellbar große Datenmenge trainiert, um Fragen glaubwürdig zu beantworten. Aber ChatGPT war es fein abgestimmt indem er mit Daten über menschliche „Gespräche“ gefüttert wurde, was die Wahrhaftigkeit und Aussagekraft seiner Antworten erheblich erhöhte.

Trotzdem produziert ChatGPT immer noch das, was seine Macher tun zugeben werden „plausibel klingende, aber falsche oder unsinnige Antworten“ sein. Dies könnte im Internet ein großes Problem darstellen, da viele Webplattformen nicht über die erforderlichen Tools verfügen, um sich vor einer Flut von KI-generierten Inhalten zu schützen. Paketüberfluss, eine Website, auf der Benutzer Antworten auf Programmierfragen finden können, verbot von ChatGPT produzierte Posts, da ihre menschlichen Moderatoren mit der Menge an glaubwürdigen, aber falschen Antworten nicht umgehen konnten. Gefahren lauern in der Weitergabe von Tools, die zur Massenproduktion von Fake News und „Trolling and Trauer” Mitteilungen.

Das Loslassen von ChatGPT wirft die Frage auf, ob Inhalten, die nach Dezember 2022 produziert wurden, wirklich vertraut werden kann. Ein menschlicher Autor haftet für seine Arbeit in einer Weise, wie es KI nicht ist. Künstliche Intelligenz ist es nicht künstliches Bewusstsein. ChatGPT weiß nicht, was es tut; es ist nicht in der Lage zu sagen, wie oder warum es eine Reaktion hervorrief; es hat kein Verständnis für menschliche Erfahrung; und kann nicht sagen, ob es Sinn oder Unsinn macht. Während OpenAI über Sicherheitsvorkehrungen verfügt, um unangemessene Anfragen abzulehnen, z. B. um den Benutzern mitzuteilen, wie sie vorgehen sollen Verbrechen begehen, diese können umgangen werden. Das Schadenspotenzial von KI sollte nicht unterschätzt werden. In den falschen Händen könnte es eine Massenvernichtungswaffe sein.

EIN Papier Dieses Jahr hat gezeigt, was passieren kann, wenn ein einfaches maschinelles Lernmodell, das Toxizität ausmerzen soll, umfunktioniert wird, um sie aufzuspüren. Innerhalb weniger Stunden wurden 40.000 Substanzen gefunden, darunter nicht nur VX-Nervengas, sondern auch andere bekannte chemische Waffen sowie viele völlig neue potenzielle Toxine. Stuxnet, eine von den USA und Israel gebaute Cyberwaffe, wurde vor mehr als einem Jahrzehnt zur Sabotage von Zentrifugen eingesetzt, die vom iranischen Atomprogramm verwendet wurden. Niemand weiß, was mit solchen Technologien passieren wird, wenn die Softwareingenieure der Zukunft selbst Softwareprogramme sein werden.

GPT-3 konnte keine einzige Codezeile schreiben, und OpenAI hat sie umgestaltet, um eine Software namens Codex zu erstellen, die dies tat. Wann Informatiker zusammen mit Studenten im ersten Jahr Codex in Prüfungen einreichte, übertraf die Software die meisten ihrer menschlichen Mitbewerber. „Menschliche Aufsicht und Wachsamkeit sind erforderlich“, haben die Forscher von OpenAI gewarnt. Diese Verfügung sollte auch für ChatGPT gelten. Die EU hat einen langen Weg zurückgelegt, um sie bereitzustellen Schutz für Bürger vor potenziell schädlicher Nutzung von KI. Großbritanniens Ansatz bietet sich bisher an wenig – eine Sorge, da Science Fiction zu Science Fact wird.


source site-26