Künstliche Intelligenz in der Medizin: Keine Macht dem Gender Bias

Über Sylvia Thun

Sylvia Thun ist approbierte Ärztin und Ingenieurin für Biomedizinische Technik. Sie lehrt seit 2011 als Professorin für Informations- und Kommunikationstechnologie im Gesundheitswesen an der Hochschule Niederrhein; seit 2018 ist sie als Gastprofessorin an der Charité und Direktorin für eHealth und Interoperabilität am Berliner Institut für Gesundheitsforschung (BIH) der Stiftung Charité. Thun forscht zu Themen wie der elektronischen Gesundheitsakte oder dem elektronischen Rezept und gilt als Expertin für nationale und internationale IT-Standards im Gesundheitswesen.

Mit “Wischi-Waschi”, wie sie sagt, kommt man bei Prof. Dr. Sylvia Thun nicht weit. Sie ist Expertin für Interoperabilität und IT-Standardisierung und nimmt es deshalb allein aufgrund ihres Berufs ganz genau. Dabei stolpert sie aber auch immer wieder über sogenannte Gender Bias in Datensätzen. Frauen sind davon besonders betroffen. Im Interview mit unserer Kollegin Anja Heckendorf erklärt sie, was es damit auf sich hat und was wir gemeinsam tun können, um Algorithmen zu schaffen, die personalisierte Behandlungen für mehr als nur einen Teil der Gesellschaft ermöglichen.

Frau Prof. Dr. Thun, danke, dass sie sich heute die Zeit nehmen. Künstliche Intelligenz, kurz KI, ist mittlerweile in aller Munde. Inwieweit ist die KI denn bereits im deutschen Gesundheitswesen angekommen?

In der Medizin ist die KI bereits angekommen und wird auch schon in vielen Bereichen angewandt - meist sogar, ohne dass Patient:innen das bemerken, beispielsweise in der Bildgebung. Wir trainieren ein System mit hunderten oder tausenden CT-Aufnahmen. So kann es lernen, wie Gewebeveränderungen aussehen und einen Tumor schnell und eindeutig erkennen. Es handelt sich also um lernende System - und diese unterstützen Ärzt:innen und Wissenschaftler:innen bei der Befundung. Natürlich brauchen wir Letztere auch weiterhin, denn im Gegensatz zur KI sehen sie den Menschen ganzheitlich. Hinzukommt, dass die KI nur ein Baustein von vielen ist, um die Medizin von morgen präziser zu machen. Auch bei lernenden Systemen wie der Künstlichen Intelligenz gilt, dass wir nur mit guten zugrundeliegenden Daten auch gute Ergebnisse erzielen können. Doch genau diese Daten existieren noch nicht so, wie wir Wissenschaftler:innen sie gerne hätten. Dadurch geht ein Teil des Potenzials der Technologie verloren.

Und wie müssten diese Daten sein, damit die Wissenschaftler:innen damit arbeiten können?

Die Daten sind aktuell leider nicht standardisiert - das bedeutet, dass jedes Land, jedes Bundesland, teils sogar jedes Krankenhaus Daten unterschiedlich speichert und abfragt. Damit kann man als Wissenschaftler:in nicht arbeiten, wenn man robuste Untersuchungsergebnisse erzielen möchte und Kausalitäten erkennen will. Wir versuchen deshalb die Daten weltweit, also auch in Europa und in Deutschland, FAIR zu gestalten. Das heißt findable, accessible, interoperable and reusable. Datenformate sollen damit weltweit festgelegt und in ISO-Standards festgeschrieben werden. Das ist aber gar nicht so einfach, weil wir die Art wie wir aktuell arbeiten dafür verändern müssen. Softwareanbieter müssen so zum Beispiel miteinander arbeiten und können nicht mehr nur ihre eigenen Datensilos schaffen. Gleichzeitig betrifft das auch die, die die Befunde eingeben. Weg vom Papier, hin zu modernen Technologien - das ist für viele eine große Umstellung.

Sie haben von den Ärzt:innen gesprochen, die die Daten eingeben und den Softwaresystemen, die diese Daten verarbeiten. Welche Rolle übernimmt die Pharmaindustrie und wie kann sie zur Standardisierung von Daten beitragen?

Gerade bei der Entwicklung neuer Therapien benötigen wir mehr Daten als früher: Bislang hatten wir die üblichen drei Phasen der klinischen Studien, die durchlaufen werden mussten, um ein Medikament auf die Wirksamkeit und Sicherheit zu überprüfen. Am Schluss hat man dann aber lediglich ein paar Daten von einer streng limitierten Kohorte, die Teil der klinischen Studie war. Das ist leider nicht immer repräsentativ für die gesamte Patientengruppe. Gemeinsam mit der Pharmaindustrie möchten wir das ändern. Schließlich haben wir mittlerweile Daten direkt vom Patienten, die nicht erst über die Dokumentationssysteme oder Papierbögen vom Arzt erfasst werden müssen. Die Daten können direkt über sogenannte Patient Reported Outcome-Fragebögen oder sogar Wearables einfließen. Die ersten klinischen Studien dieser Art laufen schon.

Nun stellt sich aber sicher manch einem die Frage, wie zuverlässig die Erhebung der Daten über digitale Technologien ist. Verzerrungen, sogenannte Bias, könnten im medizinischen Bereich schließlich das Leben eines Menschen aufs Spiel setzen, sollte darauf basierend eine Behandlungsentscheidung falsch getroffen werden.

Verzerrungen, also Bias, gibt es schon immer. Sobald ich etwas untersuche, habe ich auch eine Verzerrung in meinen Untersuchungsergebnissen. Man muss den Bias nur erkennen und herausrechnen. Die neuen Herausforderungen kommen durch selbstlernende Systeme, die ihren eigenen Bias vielleicht gar nicht erkennen und nicht herausrechnen können, weil sie so nicht programmiert worden sind. Verzerrungen, die es auch in der analogen Welt schon gab, werden dadurch potenziert.

Haben Sie ein Beispiel für einen Bias, der durch die selbstlernenden Systeme nun noch vergrößert wird?

Ein großer Bias ist zum Beispiel die Differenz zwischen Männern und Frauen, die in klinische Studien rekrutiert werden. Angenommen wir haben eine hauptsächlich männliche Datengrundlage durch eine Überzahl männlicher Studienteilnehmer. Das lernende System rechnet basierend auf diesen Daten. Das aber führt zu Ergebnissen, die nur für die männliche Biologie funktionieren - weswegen Medikamente bei Männern oft gut wirken, bei Frauen aber überdosiert sind und im Zweifel schwere Schäden anrichten können. Die beiden Geschlechter haben verschiedene biologische Voraussetzung. Das wissen wir heute - nur wird es in klinischen Studien bislang zu oft ignoriert und führt dann zu eben beschriebenem Gender Bias. Wir fordern deshalb, dass es in Studien genauso viele Männer wie Frauen gibt.

Treffen die von Ihnen beschriebenen negativen Auswirkungen ausschließlich Frauen?

Nein, keineswegs. Auch andersherum muss man geschlechtsspezifische Unterschiede anerkennen. Das zeigt aktuell das Coronavirus, das nachweislich mehr Männer, als Frauen trifft. Auch hier muss differenziert behandelt werden. An dieser Stelle möchte ich daher auch klarstellen, dass Gendermedizin eben nicht nur Medizin für Frauen ist, sondern Männer und Frauen gleichermaßen mit einbezieht. Leider wird das in der Öffentlichkeit oft nicht so kommuniziert.

Gibt es noch weitere praktische Beispiele für den Gender Bias und ihren Einfluss auf die Gesundheit von Patient:innen?

Ja, nehmen wir als Beispiel den AKI Alert, also ein Warnsystem für akutes Nierenversagen. Diese können durch Algorithmen frühzeitig erkannt werden, was viele langfristige Schäden verhindert. Leider wurde die Kategorie Gender bei der Programmierung vergessen: Der Algorithmus läuft auf 94% männlichen Daten, hauptsächlich von Soldaten, und entwickelt sich dementsprechend weiter. Das ist fatal, denn es kann sein, dass Nierenversagen bei unseren weiblichen Patientinnen dadurch weniger oft rechtzeitig erkannt wird. Wir füttern den Algorithmus zwar kontinuierlich weiter auch mit Daten von Frauen, nur leider kann keiner sagen, wie lange es dauert, bis der Algorithmus das Gleichgewicht wiederfindet. Zu dieser Frage muss noch geforscht werden.

Wie nimmt sich die wissenschaftliche Gemeinschaft diesem Thema an?

Wir sind uns einig, dass wir schleunigst klare, einheitliche Vorgaben brauchen, um solche Verzerrungen zu vermeiden. Hier ist die zuständige Behörde auf EU-Ebene in der Verantwortung. Wir haben schon viele Papiere für das Bundesministerium für Wirtschaft und das Deutsche Institut für Normung (DIN) hinsichtlich KI und IT-Standardisierung in Arbeit. Am Ende reicht es aber nicht, wenn nur die wissenschaftliche Gemeinschaft den Willen hat, den Status Quo zu ändern. Auch die Politik und die Industrie müssen mitziehen. Immerhin wollen auch die forschenden Pharmaunternehmen optimale, personalisierte Medizin anbieten und kein Wischi-Waschi. Das geht eben nur dann, wenn ich mich mit diesem Thema auseinandersetze und nicht die Hälfte der Menschheit vergesse, um nochmal spezifisch auf den Gender Bias zurückzukommen.

Bleiben wir beim Gender Bias: Reichen hier klare rechtliche Vorgaben? Braucht es nicht auch einen Mindset-Shift in der Gesellschaft? Frauen sind schließlich nicht nur in klinischen Studien unterrepräsentiert, sondern auch in Entscheidungsgremien.

Absolut. Weibliche Entscheidungsträgerinnen egal ob in Wissenschaft, Politik oder Wirtschaft sucht man oft vergeblich. Hier müssen wir ansetzen. Gleichzeitig braucht es auch aktive Frauen, die Männer auf derartige Themen hinweisen. Nur so entsteht eine Sensibilität in diesen immer noch sehr männlichen Gremien. Darüber hinaus fehlt es auch auf der operativen Ebene an Frauen. Wir brauchen deutlich mehr Entwicklerinnen für Algorithmen. Schlussendlich müssen die Ärztinnen, ebenfalls proaktiv und wachsein sein, also beispielsweise Datengrundlagen einfordern, wenn sie vermuten, dass ein Bias vorliegt. Leider gibt es im Medizinstudium in Deutschland aber keine entsprechende Ausbildung oder Sensibilisierung. Das Thema Digitalisierung und Informatik wurde im Nationalen Lernzielkatalog leider vergessen. Manche Universitäten versuchen das auszugleichen, indem sie die Themen in anderen Vorlesungen mit einbringen - das ist aber ein schweres Unterfangen. Hinzu kommt, dass wir leider zu wenige Lehrstühle im Bereich Gender Medizin haben.

Danke für diese Einordnung. Bleiben wir nochmal kurz bei der Politik. Im kürzlich verabschiedeten Koalitionsvertrag zwischen CDU und Grünen in Baden Württemberg gibt es einen Absatz zum Thema geschlechtersensible Gesundheitsvorsorge und sexuelle Gesundheit. Konkret soll geschlechtersensible Medizin bei Diagnostik und Therapie von Krankheiten gestärkt werden. Auch die EU Kommission hat Ende April einen Vorschlag für eine künftige Regulierung von KI-Anwendungen vorgelegt. Was ist aus Ihrer Sicht die Rolle des Gesetzgebers, um gegen Bias vorzugehen?

Ich würde mir wünschen, dass zukünftig nur noch Wissenschaftsprojekte gefördert werden, wenn daran auch ganz klar ausreichend Frauen beteiligt sind. Oft sieht man leider Förderprojekte, die ausschließlich von Männern geleitet werden. Das liegt aber auch daran, dass Frauen in der Wissenschaft insgesamt unterrepräsentiert sind. Insbesondere ab einer gewissen Führungsebene. Vielleicht kennen Sie den Hashtag #IchbinHanna. Der führt genau diese Problematik toll vor Augen. Das Arbeiten in der Wissenschaft ist überhaupt nicht auf Frauen ausgelegt, da es nicht mit der Familie vereinbar ist. Meines Erachtens muss das Wissenschaftszeitgesetz an die Bedürfnisse von Familien und Frauen angepasst werden. Darüber hinaus setze ich mich für gezielte Frauenförderprogramme im Bereich Künstliche Intelligenz ein.

Zum Abschluss: Was erhoffen Sie sich für das Jahr 2030, wenn Sie an all diese Themen denken, die wir gerade besprochen haben?

Ich erhoffe mir, dass bis dahin kluge Algorithmen eingesetzt werden, bei denen Umweltbedingungen miteinbezogen werden. Ich wünsche mir, dass Daten standardisiert sind und zusammengeführt werden. Noch wichtiger, dass genau diese Daten nicht nur standardisiert, sondern auch gerecht sind und die komplette Gesellschaft wiederspiegeln. Nur so erhalten wir personalisierte Behandlungen. Bis 2030 wird hoffentlich auch mehr Forschung in diesem Bereich finanziert, damit wir noch mehr über das Potenzial der KI lernen. Und am Ende geht es auch darum, dieses Potential zuzulassen und nicht gesetzlich zu verhindern, indem beispielsweise nur Medizinprodukte zugelassen werden, die nicht auf lernenden Systemen basieren. Die Welt ist dynamisch und bewegt sich weiter - regulatorische Hürden, da, wo sie nicht sinnvoll sind, dürfen dem Fortschritt nicht im Weg stehen.

Sie verlassen nun roche.de

Links zu Websites Dritter werden im Sinne des Servicegedankens angeboten. Der Herausgeber äußert keine Meinung über den Inhalt von Websites Dritter und lehnt ausdrücklich jegliche Verantwortung für Drittinformationen und deren Verwendung ab.