ChatGPT erstellt Krebsbehandlungspläne, die voller Fehler sind, wie eine Studie zeigt

Der Chatbot für künstliche Intelligenz ChatGPT war eine der meistdiskutierten Technologien des Jahres.

  • Studie kommt zu dem Ergebnis, dass ChatGPT falsche Angaben gemacht hat, als es darum gebeten wurde, Krebsbehandlungspläne zu entwerfen.
  • Der Chatbot vermischte richtige und falsche Informationen, was die Entschlüsselung erschwerte.
  • Aufgrund von Genauigkeitsproblemen bei der generativen KI ist es unwahrscheinlich, dass sie in absehbarer Zeit die Ärzte ablösen wird.

ChatGPT mag die Welt im Sturm erobern – doch eine neue Studie legt nahe, dass es einen Schlüsselbereich gibt, in dem es in absehbarer Zeit wahrscheinlich nicht zum Einsatz kommen wird.

Forscher am Brigham and Women’s Hospital – einem Lehrkrankenhaus der Harvard Medical School in Boston, Massachusetts – fanden heraus, dass die vom revolutionären Chatbot von OpenAI erstellten Krebsbehandlungspläne voller Fehler waren.

Entsprechend die Studiedas in der Zeitschrift JAMA Oncology veröffentlicht wurde und ursprünglich von berichtet wurde Bloomberg – Bei der Aufforderung, Behandlungspläne für verschiedene Krebsfälle zu erstellen, enthielt ein Drittel der Antworten des großen Sprachmodells falsche Informationen.

Die Studie stellte außerdem fest, dass der Chatbot dazu neigte, richtige und falsche Informationen zu vermischen, sodass es schwierig war, die richtigen Informationen zu erkennen. Von insgesamt 104 Anfragen enthielten etwa 98 % der Antworten von ChatGPT mindestens eine Behandlungsempfehlung, die den Richtlinien des National Comprehensive Cancer Network entsprach, heißt es in dem Bericht.

Der Chatbot „spricht oft auf eine sehr sichere Art und Weise, die sinnvoll zu sein scheint, und die Art und Weise, wie er falsche und richtige Informationen vermischen kann, ist potenziell gefährlich“, sagte Studienkoautorin Danielle Bitterman. pro Bloomberg.

„Selbst für einen Experten ist es schwer zu erkennen, welche Empfehlung falsch ist“, fügte sie hinzu.

Insider bat Bitterman um weitere Kommentare, erhielt jedoch nicht sofort eine Antwort.

ChatGPT wurde über Nacht zu einer Sensation, als es im November 2022 startete und 100 Millionen aktive Nutzer erreichte zwei Monate nach seinem Debüt. Der Chatbot löste eine Eile zu investieren in KI-Unternehmen und eine intensive Debatte über die langfristigen Auswirkungen künstlicher Intelligenz; Untersuchungen von Goldman Sachs ergaben, dass dies Auswirkungen auf 300 Millionen Arbeitsplätze weltweit haben könnte.

Trotz des Erfolgs von ChatGPT sind generative KI-Modelle immer noch anfällig für „Halluzinationen“, bei denen sie selbstbewusst Informationen präsentieren, die irreführend oder völlig falsch sind. Bekanntlich ist Googles ChatGPT-Rivale Bard 120 Milliarden Dollar vernichtet Der Aktienwert des Unternehmens sank, als es eine ungenaue Antwort auf eine Frage zum James Webb-Weltraumteleskop gab.

Bemühungen, KI in das Gesundheitswesen zu integrieren, vor allem um Verwaltungsaufgaben zu rationalisieren, sind bereits im Gange. Anfang dieses Monats ergab eine große Studie, dass der Einsatz von KI dazu beiträgt Screening auf Brustkrebs war sicher und deutete darauf hin, dass es die Arbeitsbelastung der Radiologen fast halbieren könnte.

Ein Informatiker in Harvard hat kürzlich herausgefunden, dass GPT-4, die neueste Version des Modells, dies könnte Bestehen Sie die US-amerikanische Zulassungsprüfung mit Bravour – und deutete an, dass es über ein besseres klinisches Urteilsvermögen verfügte als einige Ärzte.

Dennoch ist es aufgrund von Genauigkeitsproblemen bei generativen Modellen wie ChatGPT unwahrscheinlich, dass sie in absehbarer Zeit die Ärzte ersetzen werden.

Der JAMA-Studie fanden heraus, dass 12,5 % der Antworten von ChatGPT „halluziniert“ waren und dass der Chatbot am wahrscheinlichsten falsche Informationen präsentierte, wenn er nach einer lokalisierten Behandlung fortgeschrittener Krankheiten oder einer Immuntherapie gefragt wurde.

OpenAI hat dies anerkannt ChatGPT kann unzuverlässig sein. Die Firmen Nutzungsbedingungen warnen, dass ihre Modelle nicht für die Bereitstellung medizinischer Informationen konzipiert sind und nicht dazu verwendet werden sollten, „Diagnose- oder Behandlungsdienste für schwerwiegende Erkrankungen bereitzustellen“.

OpenAI reagierte nicht sofort auf die Bitte von Insider um einen Kommentar.

Lesen Sie den Originalartikel auf Business Insider

source site-19