Werden schlechte Daten gute Technologie untergraben?

18. Mai 2022 – Stellen Sie sich vor, Sie gehen in die Library of Congress mit ihren Millionen von Büchern und haben das Ziel, sie alle zu lesen. Unmöglich, oder? Selbst wenn Sie jedes Wort jedes Werkes lesen könnten, wären Sie nicht in der Lage, sich an alles zu erinnern oder es zu verstehen, selbst wenn Sie es ein Leben lang versucht hätten.

Nehmen wir nun an, Sie hätten irgendwie ein Gehirn mit Superkräften, das all diese Informationen lesen und verstehen könnte. Sie hätten immer noch ein Problem: Sie wüssten nicht, was war nicht die in diesen Büchern behandelt wurden – welche Fragen sie nicht beantwortet hatten, wessen Erfahrungen sie ausgelassen hatten.

In ähnlicher Weise haben die heutigen Forscher eine erstaunliche Menge an Daten zu sichten. Alle Peer-Review-Studien der Welt enthalten mehr als 34 Millionen Zitate. Millionen weiterer Datensätze untersuchen, wie sich Dinge wie Blutuntersuchungen, Kranken- und Familienanamnese, Genetik sowie soziale und wirtschaftliche Merkmale auf die Ergebnisse der Patienten auswirken.

Durch künstliche Intelligenz können wir mehr als je zuvor von diesem Material nutzen. Neue Modelle können riesige Datenmengen schnell und genau organisieren, potenzielle Patientenergebnisse vorhersagen und Ärzten dabei helfen, Anrufe zu Behandlungen oder Vorsorgemaßnahmen zu tätigen.

Die fortgeschrittene Mathematik ist vielversprechend. Manche Algorithmen – Anleitungen zum Lösen von Problemen – können das Brustkrebs genauer diagnostizieren als Pathologen. Andere KI-Tools werden bereits in medizinischen Einrichtungen eingesetzt und ermöglichen es Ärzten, die eines Patienten schneller zu finden Krankengeschichte oder ihre Fähigkeit zu verbessern Röntgenbilder analysieren.

Einige Experten auf dem Gebiet der künstlichen Intelligenz in der Medizin schlagen jedoch vor, dass die Vorteile zwar offensichtlich erscheinen, aber weniger beachtete Vorurteile diese Technologien untergraben können. Tatsächlich warnen sie davor, dass Vorurteile zu ineffektiven oder sogar schädlichen Entscheidungen in der Patientenversorgung führen können.

Neue Tools, gleiche Vorurteile?

Während viele Menschen „Voreingenommenheit“ mit persönlichen, ethnischen oder rassischen Vorurteilen assoziieren, ist Voreingenommenheit eine Tendenz, sich in eine bestimmte Richtung zu neigen, entweder für oder gegen eine bestimmte Sache.

Im statistischen Sinne tritt eine Verzerrung auf, wenn Daten die Population, die sie modellieren sollen, nicht vollständig oder genau darstellen. Dies kann daran liegen, dass zu Beginn schlechte Daten vorhanden sind, oder es kann vorkommen, dass Daten aus einer Population versehentlich auf eine andere angewendet werden.

Beide Arten von Bias – statistisch und rassisch/ethnisch – kommen in der medizinischen Literatur vor. Einige Bevölkerungsgruppen wurden genauer untersucht, während andere unterrepräsentiert sind. Dies wirft die Frage auf: Wenn wir KI-Modelle aus den vorhandenen Informationen bauen, geben wir dann nur alte Probleme an neue Technologien weiter?

„Nun, das ist definitiv ein Problem“, sagt er David M. Kent, MD, Direktor des Predictive Analytics and Comparative Effectiveness Center am Tufts Medical Center.

In einem neue Studie, Kent und ein Forscherteam untersuchten 104 Modelle, die Herzkrankheiten vorhersagen – Modelle, die Ärzten bei der Entscheidung helfen sollen, wie sie der Erkrankung vorbeugen können. Die Forscher wollten wissen, ob die Modelle, die zuvor genau funktioniert hatten, auch bei Tests an einer neuen Gruppe von Patienten so gut abschneiden würden.

Ihre Erkenntnisse?

Die Modelle „schnitten schlechter ab, als die Leute erwarten würden“, sagt Kent.

Sie waren nicht immer in der Lage, Patienten mit hohem Risiko von Patienten mit niedrigem Risiko zu unterscheiden. Manchmal über- oder unterschätzten die Tools das Krankheitsrisiko des Patienten. Alarmierenderweise hatten die meisten Modelle das Potenzial, Schaden anzurichten, wenn sie in einer realen klinischen Umgebung verwendet wurden.

Warum unterschied sich die Leistung der Modelle so stark von ihren ursprünglichen Tests im Vergleich zu heute? Statistische Verzerrung.

„Vorhersagemodelle verallgemeinern nicht so gut, wie die Leute denken, dass sie verallgemeinern“, sagt Kent.

Wenn Sie ein Modell von einer Datenbank in eine andere verschieben oder wenn sich die Dinge im Laufe der Zeit (von einem Jahrzehnt zum anderen) oder räumlich (von einer Stadt zur anderen) ändern, kann das Modell diese Unterschiede nicht erfassen.

Das erzeugt statistische Verzerrungen. Infolgedessen repräsentiert das Modell die neue Patientenpopulation nicht mehr und funktioniert möglicherweise nicht so gut.

Das bedeutet nicht, dass KI nicht im Gesundheitswesen eingesetzt werden sollte, sagt Kent. Aber es zeigt, warum menschliche Aufsicht so wichtig ist.

„Die Studie zeigt nicht, dass diese Modelle besonders schlecht sind“, sagt er. „Es hebt eine allgemeine Verwundbarkeit von Modellen hervor, die versuchen, das absolute Risiko vorherzusagen. Es zeigt, dass eine bessere Prüfung und Aktualisierung der Modelle erforderlich ist.“

Aber auch menschliche Überwachung hat ihre Grenzen, wie Forscher in a warnen neues Papier plädieren für einen standardisierten Prozess. Ohne einen solchen Rahmen können wir nur die Voreingenommenheit finden, nach der wir zu suchen glauben, stellen sie fest. Auch hier wissen wir nicht, was wir nicht wissen.

Voreingenommenheit in der „Black Box“

Rasse ist eine Mischung aus körperlichen, verhaltensbezogenen und kulturellen Eigenschaften. Es ist eine wesentliche Variable in der Gesundheitsversorgung. Aber Rasse ist ein kompliziertes Konzept, und es können Probleme auftreten, wenn Rasse in Vorhersagealgorithmen verwendet wird. Obwohl es gesundheitliche Unterschiede zwischen Rassengruppen gibt, kann nicht davon ausgegangen werden, dass alle Menschen in einer Gruppe die gleichen gesundheitlichen Folgen haben werden.

David S. Jones, MD, PhDProfessor für Kultur und Medizin an der Harvard University und Co-Autor von In aller Öffentlichkeit verborgen – Überdenken der Verwendung von Rassenkorrekturen in Algorithmensagt, dass „viele dieser Tools [analog algorithms] scheinen Gesundheitsressourcen auf Weiße auszurichten.“

Etwa zur gleichen Zeit, ähnlich Vorurteile in KI-Tools wurden von den Forschern Ziad Obermeyer, MD, und Eric Topol, MD, identifiziert.

Der Mangel an Vielfalt bei klinischen Studien, die die Patientenversorgung beeinflussen, gibt seit langem Anlass zur Sorge. Eine Sorge, sagt Jones, ist jetzt, dass die Verwendung dieser Studien zum Erstellen von Vorhersagemodellen diese Verzerrungen nicht nur weitergibt, sondern sie auch undurchsichtiger und schwerer zu erkennen macht.

Vor dem Beginn der KI waren analoge Algorithmen die einzige klinische Option. Diese Arten von Vorhersagemodellen werden nicht automatisch, sondern von Hand berechnet.

„Bei Verwendung eines analogen Modells“, sagt Jones, „kann sich eine Person die Informationen leicht ansehen und genau wissen, welche Patienteninformationen, wie z. B. Rasse, eingeschlossen oder nicht eingeschlossen wurden.“

Bei Werkzeugen für maschinelles Lernen kann der Algorithmus jetzt proprietär sein – was bedeutet, dass die Daten vor dem Benutzer verborgen sind und nicht geändert werden können. Es ist ein “schwarze Box.“ Das ist ein Problem, weil der Benutzer, ein Leistungserbringer, möglicherweise nicht weiß, welche Patienteninformationen enthalten waren oder wie sich diese Informationen auf die Empfehlungen der KI auswirken könnten.

„Wenn wir die Rasse in der Medizin verwenden, muss dies völlig transparent sein, damit wir verstehen und vernünftig beurteilen können, ob die Verwendung angemessen ist“, sagt Jones. „Die Fragen, die beantwortet werden müssen, lauten: Wie und wo man Rassekennzeichnungen verwendet, damit sie Gutes tun, ohne zu schaden.“

Sollten Sie sich über KI in der klinischen Versorgung Sorgen machen?

Trotz der Flut von KI-Forschung müssen die meisten klinischen Modelle noch in die reale Pflege übernommen werden. Aber wenn Sie sich Sorgen über den Einsatz von Technologie oder Rasse durch Ihren Anbieter machen, schlägt Jones vor, proaktiv zu sein. Sie können den Anbieter fragen: „Gibt es Wege, auf denen Ihre Behandlung von mir auf Ihrem Verständnis meiner Rasse oder ethnischen Zugehörigkeit basiert?“ Dies kann den Dialog darüber eröffnen, dass der Anbieter Entscheidungen trifft.

Inzwischen sind sich die Experten einig, dass Probleme im Zusammenhang mit statistischen und rassistischen Vorurteilen innerhalb der künstlichen Intelligenz in der Medizin bestehen und angegangen werden müssen, bevor die Werkzeuge in großem Umfang eingesetzt werden.

„Die wirkliche Gefahr besteht darin, dass Tonnen von Geld in neue Unternehmen fließen, die Vorhersagemodelle erstellen, die unter Druck stehen [return on investment]“, sagt Kent. „Dies könnte zu Konflikten bei der Verbreitung von Modellen führen, die möglicherweise nicht fertig oder ausreichend getestet sind, was die Qualität der Versorgung möglicherweise schlechter statt besser macht.“

source site-24