Du betrachtest gerade KI in der Medizin: Von Diagnostik bis Diskriminierung
Bild: KI-generiert mit DALL-E

KI in der Medizin: Von Diagnostik bis Diskriminierung

Ob Bustkrebs, Hautkrebs oder COPD: Der Einsatz von Künstlicher Intelligenz in der Medizin verspricht vor allem schnellere Diagnosen und bessere Heilungschancen. Auf die Technologie verlassen sollte man sich trotzdem nicht. Denn das kann im schlimmsten Fall gravierende gesundheitliche Folgen für Personen mit sich bringen, die aufgrund ihres Geschlechts, ihres Alters, ihrer Hautfarbe oder Herkunft nicht dem gesellschaftlichen Durchschnitt entsprechen. Soziologin und Pharmazeutin Dr. Renate Baumgartner erklärt, was KI in der Medizin heute schon kann – und warum die Technologie bisher keine menschliche Expertise ersetzen kann.

Dass Radiolog*innen künftig durch KI ersetzt werden könnten, ist medial schon seit einigen Jahren ein Thema. Davon war der Informatiker und „Godfather of AI“ Geoffrey Hinten schon 2016 überzeugt. Was kann KI in der Medizin denn besser als der Mensch?

Man nimmt generell an, dass KI gut darin ist, in kürzester Zeit Muster zu identifizieren. Das kann vor allem in der Radiologie hilfreich sein, wenn es darum geht, Krebszellen zu finden. Deshalb erhofft man sich durch den Einsatz von KI-Systemen in diesem Bereich vor allem schnellere und bessere Diagnosen. Aber bei manchen Problemstellungen in der Medizin ist es nicht möglich, einem Computersystem genau das anzutrainieren, was Ärzt*innen sich durch jahrelange Berufserfahrung angeeignet haben.

Nehmen wir zum Beispiel Brustkrebs: Bei dieser Form von Krebs ist das Risiko für eine falsch-positive Diagnose sehr hoch. Das kann gravierende Konsequenzen haben und ist für die Patient*innen nicht nur psychisch belastend, sondern kann im schlimmsten Fall dazu führen, dass eine Brust entnommen wird. Von KI hat man sich erhofft, dass sie hier weniger Fehler macht als der Mensch. Medial wird es häufig so dargestellt, als wäre KI hier schon sehr viel weiter. Die Erfolge sind allerdings noch durchwachsen: KI erkennt zwar Muster von extrem kleinen Zellen. Diese Zellzusammenschlüsse sind aber häufig gar nicht relevant für eine Diagnose, weil es sich nicht um Krebszellen handelt. Letztendlich ist hier also wieder die Expertise der Ärzt:innen gefragt.

Renate Baumgartner
Renate Baumgartner forscht derzeit an der Vrije Universiteit Amsterdam und beschäftigt sich damit, wie KI-Tools in der Medizin inklusiver gestaltet werden können. | Bild: Renate Baumgartner

Wozu wird KI im medizinischen Bereich außerdem eingesetzt?

Neben der Diagnose von Erkrankungen spielt KI außerdem in der Therapiefindung eine Rolle. Hier sieht man vor allem im Bereich der personalisierten Medizin Potential. Ein Beispiel ist die HIV-Therapie: Hier kommt es beispielsweise darauf an, welche HI-Viren eine Person in sich trägt. KI-Anwendungen können helfen, die Therapie zu optimieren und individuelle Faktoren, wie zum Beispiel genetische Marker, in die Therapieentscheidung miteinfließen zu lassen. KI-Systeme können außerdem Risiken berechnen und Vorhersagen treffen. Beispielsweise gibt es Tools, die das Herzinfarktrisiko berechnen oder vorhersagen, wie lange ein Krankenhausaufenthalt dauern wird.

Sie beschäftigen sich in Ihrer Forschung mit Fragen rund um die Themen Fairness und Diskriminierung. Inwiefern können Algorithmen im medizinischen Bereich diskriminierend wirken?

In der Medizin ist es besonders problematisch, wenn KI-Systeme nicht bei allen Menschen gleichermaßen funktionieren. Ein Bereich, wo das Thema Diskriminierung relevant wird, ist die Hautkrebserkennung. Es gibt beispielsweise KI-Tools, mit dem man Muttermale scannen kann. Hier hat man allerdings festgestellt, dass diese Tools nicht auf schwarzer Haut funktionieren. Das kann damit zusammenhängen, dass die KI nur mit Bildern von heller Haut trainiert wurde. Aber auch aus der Gendermedizin gibt es Beispiele. Hier gab es KI-Tools, die das Herzinfarktrisiko berechnen konnten, aber nicht mit Daten von Frauen trainiert wurden. Denn Frauen weisen häufig sogenannte „atypische“ Symptome auf: Herzinfarkte äußern sich bei Frauen nämlich eher selten mit Schmerzen in der Brust oder im linken Arm, sondern zum Beispiel mit Rückenschmerzen. Im schlimmsten Fall bleibt eine Erkrankung also unerkannt, wenn ein KI-Tool biased ist.  

Abgesehen davon ist es unfair, wenn nicht alle Menschen gleichermaßen von einer KI-Anwendung profitieren. Dabei werden auch andere Kategorien von Diversität relevant, wie zum Beispiel das Alter. Derzeit bin ich bei der Entwicklung eines KI-Tools für COPD-Patient:innen involviert. Diese chronische Lungenerkrankung betrifft vor allem Ältere und Personen mit einem niedrigeren sozioökonomischen Status. Beides sind Personengruppen, die seltener auf digitale Anwendungen zurückgreifen. Wir möchten aber, dass das Tool auch von diesen Menschen genutzt wird. Es darf also nicht technisch überladen sein. Deshalb sind wir von Anfang an mit COPD-Erkrankten aus unterschiedlichen Personengruppen im Gespräch und beziehen sie in den Designprozess ein.

Wovon hängt es ab, wie divers die Trainingsdaten von KI-Systemen in der Medizin letztendlich ausfallen?

Es spielt auf jeden Fall eine Rolle, wer die Datensätze kuratiert und gestaltet. Bemerken die Entwickler:innen überhaupt, dass ein Datensatz nicht divers ist? Und welche Personen haben sie als Zielgruppe im Kopf, wenn sie ein Tool entwickeln? Häufig ist es der Fall, dass Data Scientists oder Informatiker:innen von ihren eigenen Erfahrung und Vorlieben ausgehen und von sich auf andere schließen. Vielleicht haben sie auch eine besonders zahlungskräftige Zielgruppe vor Augen. Das kann dazu führen, dass bestimmte Personengruppen im Designprozess nicht berücksichtigt werden.

Bleiben wir bei dem Hautkrebs-Beispiel, gibt es allerdings noch weitere Gründe, warum Datensätze nicht divers gestaltet sind: Für die Entwicklung solcher KI-Systeme wird auf vorhandene Hautkrebsdatenbanken zurückgegriffen. Das hängt damit zusammen, dass es sehr teuer ist, solche Bilder neu zu erstellen und von Expert:innen labeln zu lassen. Bilder von brauner oder schwarzer Haut sind in diesen Datenbanken allerdings eine Seltenheit, weil sie kaum existieren. Denn die Annahme, nur weiße Personen wären von Hautkrebs betroffen, ist noch immer sehr verbreitet. Wenn Personen mit dunkler Haut selbst von dieser Vorstellung ausgehen und deshalb nicht zur Kontrolle gehen, können keine Daten von ihnen erhoben werden. Teilweise wissen auch Ärzt:innen nicht, wie Hautkrebs auf dunkler Haut aussieht. Das zeigt, dass es in der Medizin generell einen Racial Bias gibt, der auf einer falschen Vorstellung basiert und in den KI-Systemen fortgeführt wird.

Auch von Personen mit einem niedrigen sozioökonomischen Status liegen viel weniger Daten vor. Das hängt vor allem damit zusammen, dass sich diese Personen seltener ärztliche Hilfe suchen. Möglicherweise auch, weil sie oft nicht versichert sind. Von wem Daten existieren, hängt also stark von sozialen Faktoren ab. KI-Tools wiederholen und verstärken diese gesundheitlichen Ungleichheiten, wenn es ihren Trainingsdaten an Diversität mangelt.

Passend dazu fällt mir ein Post von Open-AI-Chef Sam Altman ein, den er 2023 auf X veröffentlicht hat. Darin hieß es, KI werde in Zukunft vor allem den Menschen zugutekommen, die sich keine medizinische Behandlung leisten können: Halten Sie solche Versprechungen für realistisch?

Nein, ich denke, dass das eher falsche Versprechungen sind. Natürlich kann KI bei der Informationsbeschaffung eine Rolle spielen. Es ist auch jetzt schon so, dass die Patient:innen aufgrund des Medienangebots sehr viel informierter sind als es noch vor 20 Jahren der Fall war. Aber Medizin geht weit über die Informationsbeschaffung hinaus. Da geht es auch um ein zwischenmenschliches Verhältnis. Viele Menschen bevorzugen Ärzt:innen, die sich Zeit für sie nehmen.

Manche Expert:innen sind allerdings überzeugt davon, dass KI den Ärzt:innen in Zukunft mehr Zeit für ihre Patient:innen verschaffen wird. Eric Topol beispielsweise, der ein führender Experte auf dem Gebiet der Medical AI ist, ist überzeugt davon. Ich sehe das eher kritisch, denn der Einsatz von KI-Systemen birgt noch immer zu viele Risiken. In der Medizin kann es dabei im schlimmsten Fall um Leben und Tod gehen. Daher halte ich es für unwahrscheinlich, dass KI in Zukunft die ärztliche Beratung gänzlich ersetzen wird.

Wie optimistisch blicken Sie in die Zukunft? Kann KI in der Medizin diversitätssensibel gestaltet werden?

Ich sehe in der Technologie auf jeden Fall Chancen für das Gesundheitswesen. Man kann KI hier beispielsweise auch nutzen, um Diskriminierungen aufzudecken. Generell muss man sich diesen Problemen einfach annehmen, und das Beste aus den technischen Möglichkeiten herausholen. Wichtig ist, dass Diversität im Designprozess von Anfang bis Ende mitgedacht wird. Erst wenn KI-Entwickler:innen ein Bewusstsein dafür entwickelt haben, kann sich etwas verändern. Das passiert natürlich nicht von selbst. Deshalb ist feministische Technikforschung in der Medizin so wichtig.

Schreibe einen Kommentar