KI-Anordnung für das Gesundheitswesen kann Patienten und Ärzte einander näher bringen

10. November 2023 – Möglicherweise haben Sie ChatGPT-4 oder einen der anderen neuen Chatbots mit künstlicher Intelligenz verwendet, um eine Frage zu Ihrer Gesundheit zu stellen. Oder vielleicht verwendet Ihr Arzt ChatGPT-4, um eine Zusammenfassung dessen zu erstellen, was bei Ihrem letzten Besuch passiert ist. Vielleicht lässt Ihr Arzt die Diagnose Ihrer Erkrankung sogar noch einmal per Chatbot überprüfen.

Aber in diesem Stadium der Entwicklung dieser neuen Technologie wären sowohl Verbraucher als auch Ärzte nach Ansicht von Experten gut beraten, mit Vorsicht vorzugehen. Trotz der Zuverlässigkeit, mit der ein KI-Chatbot die angeforderten Informationen liefert, sind diese nicht immer korrekt.

Da sich der Einsatz von KI-Chatbots sowohl im Gesundheitswesen als auch anderswo rasch verbreitet, werden zunehmend Forderungen an die Regierung laut, die Technologie zu regulieren, um die Öffentlichkeit vor den möglichen unbeabsichtigten Folgen der KI zu schützen.

Einen ersten Schritt in diese Richtung hat die Bundesregierung jüngst als Präsident Joe Biden gemacht eine Durchführungsverordnung erlassen Das erfordert, dass Regierungsbehörden Wege finden, den Einsatz von KI zu regeln. In der Welt des Gesundheitswesens weist die Verordnung das Ministerium für Gesundheit und menschliche Dienste an, verantwortungsvolle KI-Innovationen voranzutreiben, die „das Wohlergehen von Patienten und Arbeitnehmern im Gesundheitssektor fördern“.

Unter anderem soll die Agentur innerhalb eines Jahres eine Task Force für Gesundheits-KI einrichten. Diese Task Force wird einen Plan entwickeln, um den Einsatz von KI und KI-gestützten Anwendungen in der Gesundheitsversorgung, im öffentlichen Gesundheitswesen sowie in der Forschung und Entwicklung sowie Sicherheit von Arzneimitteln und medizinischen Geräten zu regulieren.

Der strategische Plan wird sich auch mit „der langfristigen Sicherheit und realen Leistungsüberwachung von KI-gestützten Technologien“ befassen. Die Abteilung muss außerdem eine Methode entwickeln, um festzustellen, ob KI-gestützte Technologien „ein angemessenes Qualitätsniveau beibehalten“. Und in Zusammenarbeit mit anderen Behörden und Patientensicherheitsorganisationen müssen die Gesundheits- und Sozialdienste einen Rahmen schaffen, um Fehler zu identifizieren, „die aus dem Einsatz von KI in klinischen Umgebungen resultieren“.

Bidens Executive Order sei „ein guter erster Schritt“, sagte Ida Sim, MD, PhD, Professorin für Medizin und computergestützte Präzisionsgesundheit und Chief Research Informatics Officer an der University of California, San Francisco.

John W. Ayers, PhD, stellvertretender Direktor für Informatik am Altman Clinical and Translational Research Institute an der University of California San Diego, stimmte zu. Er sagte, dass die Gesundheitsbranche zwar einer strengen Aufsicht unterliegt, es jedoch keine spezifischen Vorschriften für den Einsatz von KI im Gesundheitswesen gebe.

„Diese einzigartige Situation ergibt sich aus der Tatsache, dass sich die KI schnell entwickelt und die Regulierungsbehörden nicht mithalten können“, sagte er. Es sei jedoch wichtig, in diesem Bereich vorsichtig vorzugehen, da neue Vorschriften sonst den medizinischen Fortschritt behindern könnten, sagte er.

Das Problem „Halluzination“ beschäftigt die KI

Im Jahr seit der Einführung von ChatGPT-4 haben sich der Chatbot und andere, die mit seiner menschenähnlichen Konversation und seinem Wissen zu vielen Themen beeindruckt sind, Experten fest im Gesundheitswesen etabliert. Vierzehn Prozent der Ärzte, laut einer Umfrage, nutzen diese „Konversationsagenten“ bereits, um Patienten zu diagnostizieren, Behandlungspläne zu erstellen und online mit Patienten zu kommunizieren. Die Chatbots werden auch verwendet, um vor Besuchen Informationen aus Patientenakten zusammenzustellen und Besuchsnotizen für Patienten zusammenzufassen.

Verbraucher haben auch damit begonnen, Chatbots zu nutzen, um nach Gesundheitsinformationen zu suchen. Versicherungsleistungsbescheide verstehenund um Zahlen aus Labortests zu analysieren.

Das Hauptproblem bei all dem ist, dass die KI-Chatbots nicht immer Recht haben. Manchmal erfinden sie Dinge, die es nicht gibt – sie „halluzinieren“, wie manche Beobachter es nennen. Laut a aktuelle Studie von Vectaraeinem Startup, das von ehemaligen Google-Mitarbeitern gegründet wurde, machen Chatbots in mindestens 3 % der Fälle Informationen aus – je nach Bot sogar in 27 % der Fälle. Noch ein Bericht kam zu ähnlichen Schlussfolgerungen.

Das soll nicht heißen, dass die Chatbots nicht besonders gut darin sind, meistens die richtige Antwort zu finden. In einem Versuch33 Ärzte in 17 Fachgebieten stellten Chatbots 284 medizinische Fragen unterschiedlicher Komplexität und bewerteten ihre Antworten. Mehr als die Hälfte der Antworten wurde als nahezu richtig oder völlig richtig bewertet. Allerdings wurden die Antworten auf 15 Fragen als völlig falsch bewertet.

Google hat einen Chatbot namens Med-PaLM erstellt, der auf medizinisches Wissen zugeschnitten ist. Dieser Chatbot, der eine ärztliche Approbationsprüfung bestanden hat, hat eine Genauigkeitsrate von 92,6 % bei der Beantwortung medizinischer Fragen, was in etwa der von Ärzten entspricht. laut einer Google-Studie.

Ayers und seine Kollegen führten eine Studie durch Vergleich der Antworten von Chatbots und Ärzten auf Fragen, die Patienten online gestellt haben. Gesundheitsexperten bewerteten die Antworten und bevorzugten in fast 80 % der Austausche die Chatbot-Antwort gegenüber der Antwort der Ärzte. Die Antworten der Ärzte wurden sowohl hinsichtlich der Qualität als auch der Empathie schlechter bewertet. Die Forscher vermuteten, dass die Ärzte aufgrund des Praxisstresses, unter dem sie standen, möglicherweise weniger einfühlsam waren.

Müll rein, Müll raus

Mithilfe von Chatbots können seltene Diagnosen erkannt oder ungewöhnliche Symptome erklärt werden, außerdem können sie zu Rate gezogen werden, um sicherzustellen, dass Ärzte offensichtliche diagnostische Möglichkeiten nicht verpassen. Um für diese Zwecke verfügbar zu sein, sollten sie in das elektronische Patientenaktensystem einer Klinik eingebettet werden. Microsoft hat es bereits getan eingebetteter ChatGPT-4 im am weitesten verbreiteten Gesundheitsaktensystem von Epic Systems.

Eine Herausforderung für jeden Chatbot besteht darin, dass die Datensätze einige falsche Informationen enthalten und oft Daten fehlen. Viele diagnostische Fehler hängen mit schlecht erfassten Patientenanamnesen und lückenhaften körperlichen Untersuchungen zusammen, die in der elektronischen Gesundheitsakte dokumentiert sind. Und diese Aufzeichnungen enthalten normalerweise nicht viele oder gar keine Informationen aus den Aufzeichnungen anderer Ärzte, die den Patienten gesehen haben. Allein aufgrund der unzureichenden Daten in der Patientenakte könne es für einen Menschen oder eine künstliche Intelligenz schwierig sein, in einem bestimmten Fall die richtigen Schlussfolgerungen zu ziehen, sagte Ayers. Hier können die Erfahrung und das Wissen eines Arztes über den Patienten von unschätzbarem Wert sein.

Aber Chatbots sind recht gut darin, mit Patienten zu kommunizieren, wie die Studie von Ayers zeigte. Unter menschlicher Aufsicht, sagte er, sei es wahrscheinlich, dass diese Gesprächsagenten dazu beitragen könnten, Ärzte von der Belastung durch Online-Nachrichten mit Patienten zu entlasten. Und er sagte, dies könne die Qualität der Pflege verbessern.

„Ein Conversational Agent ist nicht nur etwas, das Ihren Posteingang oder die Belastung Ihres Posteingangs bewältigen kann. Es kann Ihren Posteingang durch proaktive Nachrichten an Patienten in einen Postausgang verwandeln“, sagte Ayers.

Die Bots können den Patienten persönliche Nachrichten senden, die auf ihre Unterlagen und die voraussichtlichen Bedürfnisse der Ärzte zugeschnitten sind. „Was würde das für die Patienten bedeuten?“ Sagte Ayers. „Hier liegt ein enormes Potenzial, die Art und Weise zu verändern, wie Patienten mit ihren Gesundheitsdienstleistern interagieren.“

Vor- und Nachteile von Chatbots

Wenn Chatbots zur Generierung von Nachrichten an Patienten eingesetzt werden können, können sie auch eine Schlüsselrolle bei der Behandlung chronischer Krankheiten spielen, von denen bis zu betroffen sind 60 % aller Amerikaner.

Sim, der auch Hausarzt ist, erklärt es so: „Chronische Krankheiten sind etwas, das man rund um die Uhr hat. Ich sehe meine am stärksten erkrankten Patienten jeden Monat durchschnittlich 20 Minuten lang, daher bin ich nicht derjenige, der den größten Teil der chronischen Pflege übernimmt.“

Sie fordert ihre Patienten auf, Sport zu treiben, ihr Gewicht zu kontrollieren und ihre Medikamente wie verordnet einzunehmen.

„Aber ich biete zu Hause keine Unterstützung an“, sagte Sim. „KI-Chatbots können aufgrund ihrer Fähigkeit, natürliche Sprache zu verwenden, auf eine Weise für Patienten da sein, wie wir Ärzte es nicht können.“

Neben der Beratung von Patienten und ihren Betreuern können Gesprächsagenten auch Daten von Überwachungssensoren analysieren und täglich Fragen zum Zustand eines Patienten stellen, sagte sie. Obwohl nichts davon in naher Zukunft passieren werde, sei es eine „große Chance“, sagte sie.

Ayers stimmte zu, warnte jedoch davor, dass randomisierte kontrollierte Studien durchgeführt werden müssen, um festzustellen, ob ein KI-gestützter Nachrichtendienst tatsächlich die Patientenergebnisse verbessern kann.

„Wenn wir diese Konversationsagenten nicht gründlich wissenschaftlich untersuchen, kann ich mir Szenarien vorstellen, in denen sie umgesetzt werden und Schaden anrichten“, sagte er.

Im Allgemeinen, so Ayers, sollte die nationale KI-Strategie auf den Patienten ausgerichtet sein und sich nicht darauf konzentrieren, wie Chatbots Ärzten helfen oder Verwaltungskosten senken.

Aus Verbrauchersicht sagte Ayers, er sei besorgt darüber, dass KI-Programme „allgemeine Empfehlungen an Patienten geben, die unwesentlich oder sogar schlecht sein könnten“.

Sim betonte auch, dass Verbraucher sich nicht auf die Antworten verlassen sollten, die Chatbots auf Gesundheitsfragen geben.

„Es muss viel Vorsicht geboten sein. Diese Dinge sind so überzeugend in der Art und Weise, wie sie natürliche Sprache verwenden. Ich denke, es ist ein großes Risiko. Zumindest sollte der Öffentlichkeit gesagt werden: ‚Hier steckt ein Chatbot, und der könnte falsch sein.‘“

source site-24