Der dritte große Trend umfasst alles, was man als „Mobile Health“ bezeichnet: Apps, sogenannte „Smart Wearables“ wie Fitness-Tracker, Smartwatches usw., die Gesundheitsdaten von Patienten sammeln. Denken Sie etwa an Menschen mit chronischen Erkrankungen, zum Beispiel an Menschen mit Diabetes, die diese Technologien sehr intensiv nutzen. Das können aber auch gesunde Personen verwenden, um ihre Gesundheitsdaten zu überwachen und ihren Lebensstil zu verbessern, was einen enormen präventiven Nutzen hat.
In diesen drei Bereichen können wir meines Erachtens sagen: Hier verspricht die KI nicht nur vieles, sie liefert auch schon.
Worin ist KI besser als der Mensch?
Die Evidenz belegt, dass KI-Anwendungen den Menschen in zwei rechnerischen Funktionen übertreffen. KI ist außerordentlich gut darin, in großen Datenmengen Zusammenhänge und Muster analytisch aufzufinden. Das ist wichtig, um Auffälligkeiten und Anomalien, z. B. in medizinischen Bildern, zu erkennen. Mit der Verwendung von KI verbessert sich daher auch die prädiktive Datenanalyse, also die Vorhersage, wie sich Krankheiten weiterentwickeln oder wie hoch das Erkrankungsrisiko für einen Patienten ist.
Aber eine KI kann einen Menschen nicht behandeln. Zum Behandeln gehört mehr dazu als Röntgenbilder richtig zu interpretieren oder zu sagen: Sie haben dieses oder jenes Risiko, diese Krankheit zu entwickeln. Einen Patienten zu behandeln ist viel komplexer als diese Einzeltätigkeiten. Patienten sind nicht nur durch ihre Daten definiert.
Was halten Sie von der Verheißung, wonach Technik das Gesundheitswesen „menschlicher“ machen wird, weil Ärzte endlich Bürokratie abgeben und mehr Zeit für Patienten haben werden? Besteht nicht auch das Risiko, dass die Technik neue Verhaltensmuster generiert, etwa mehr Patienten in weniger Zeit durchzuschleusen?
Wer sich ein wenig mit Gesundheitsökonomie auskennt, wird auf solche Versprechen sofort skeptisch reagieren. Zunächst einmal müssen wir einen Schritt zurückgehen und überlegen, was Aussagen wie „Die Technik macht dies oder jenes“ bedeuten. „Technik“ als solche macht nämlich erst einmal gar nichts. Die Frage, zu welchem Ergebnis eine Technik führt oder führen soll, ist zunächst eine menschliche Entscheidung. Bevor Technik entwickelt und verwendet wird, müssen wir die Werte unseres Gesundheitssystems und die Ziele definieren, für die wir die Technik einsetzen.
Da sehe ich den entscheidenden Punkt, dem zu wenig Beachtung geschenkt wird: Wir sollten im Vorhinein klare Ziele definieren. Dann können wir vorgeben, welche Art von Technik wir wollen. Momentan scheint es umgekehrt zu laufen: Wir folgen einem reinen „Technology Push“, bei dem zuerst kostspielige Technologien entwickelt werden, damit uns dann erklärt wird, wofür wir sie einsetzen sollen.
Das Menschenbild der modernen Medizin erweckt den Eindruck, dass der Mensch immer mehr auf die Summe seiner Biodaten reduziert wird. In Ihrer Forschung sprechen Sie im Zusammenhang mit KI von einer potenziellen „Datafizierung des Patienten“. Was bedeutet das?
Die ärztliche Kernkompetenz ist keine angewandte Humanbiologie. Die Gesundheit einer Person hängt von sehr vielen Faktoren ab, nicht nur von rein biomedizinischen, quantifizierbaren Faktoren. Dazu gehören soziale Determinanten von Krankheit und Gesundheit, das persönliche Lebensumfeld, Familie, Einkommen, Werte und so weiter. All das spielt im biopsychosozialen Modell der Gesundheit eine Rolle.
KI blendet viele dieser Informationen aus und zielt stark auf quantifizierbare Daten, aus denen sehr präzise Datenmodelle gebaut werden. Das ist zunächst einmal gut. Ein Modell ist aber, wie wir aus der Naturwissenschaft wissen, immer eine Vereinfachung und kein Spiegelbild der Wirklichkeit. Interessanterweise werfen wir dieses Wissen über die Limitierung von Modellen über Bord, wenn wir von KI sprechen, und denken, KI zeige uns die klare Realität. Dann besteht die Gefahr des sogenannten „digitalen Positivismus“. Damit sagt man: Patienten sind nichts anderes als eine Anhäufung von Daten.
Mit datenintensiven Technologien kann man versuchen, Gesundheitsphänomene zu verstehen, vorherzusagen und zu analysieren – auf der Grundlage klar definierter Daten und Parameter. Man muss sich dabei aber immer bewusst sein: Es handelt sich um eine Form des Reduktionismus.
Wie wird sich die Rolle des Arztes verändern? Welche ärztliche Kompetenz wird in Zukunft die wichtigste sein? Und wie werden sich die Beziehungen und die Kultur im Gesundheitswesen durch KI ändern?
Die wichtigste neue ärztliche Kompetenz wird sein, beides in Einklang zu bringen: Wie nutze ich die enormen Vorteile dieser KI-Technologien, ohne gleichzeitig in einen digitalen Positivismus zu fallen? Es gehört zu den ärztlichen Kernkompetenzen, nicht bloß Daten oder Krankheiten zu behandeln, sondern eine Person. Diese Kompetenz muss in der medizinischen Aus- und Weiterbildung noch stärker geschult werden.
Die Gefahr ist, dass Ärzte einen digitalen Positivismus verinnerlichen und dann tatsächlich genau das verloren geht, was Medizin so besonders macht: dass die Menschlichkeit ihr oberstes Prinzip ist. Medizin ist ein von Grund auf humanistisches Unterfangen, und das darf nicht verloren gehen.
Es kann sich natürlich auch systematisch im Gesundheitsbereich eine gewisse „Logik der KI“ einschleichen, die auf Ressourceneffizienz ausgelegt ist. Das ist aber nicht die Priorität der Medizin, die in erster Linie einen Versorgungsauftrag hat. Natürlich ist es immer gut, Ressourcen zu sparen, das ist überhaupt keine Frage. Aber die oberste Priorität muss das Patientenwohl bleiben.
Wer sollte die Entscheidungen treffen, und wie kann die Verantwortung verteilt werden, wenn Fehler passieren?
Ich würde sagen, wir sollten uns vorrangig an dieses Prinzip halten: Prozesse automatisieren, nicht Entscheidungen. Die menschliche Arbeitskraft von sehr hoch ausgebildeten Menschen wird völlig verschwendet bei Prozessen, die eine KI ohnehin viel besser und ressourceneffizienter machen kann. Das ist eine tolle Sache. Ich bin aber sehr skeptisch, wenn es darum geht, Entscheidungen zu automatisieren.
Für mich ist es kein Vorteil, wenn eine KI etwas „entscheidet“. Menschen sind besser darin, Dinge zu kontextualisieren, und können ganzheitlichere Entscheidungen treffen. Wenn eine KI allein Entscheidungen trifft, ist die Gefahr des Reduktionismus sehr groß. Letztlich sollte die Entscheidung und die letzte Verantwortung immer bei Menschen bleiben.
Welche Aufgaben dürfen aus Ihrer Sicht niemals an die KI delegiert werden?
Die Behandlung ist mehr als die Summe ihrer Teile. Medizin braucht die Arzt-Patienten-Beziehung, Vertrauen und engen zwischenmenschlichen Kontakt – und das kann nur der Mensch und nicht die Technologie ermöglichen.
Es geht in der Medizin um das Fürsorgeprinzip. Es geht darum, Menschen zu helfen, und das ist ein menschliches Unterfangen. Dazu sollte man die bestmöglichen technischen Mittel verwenden, und dazu gehört KI ganz vorne mit dazu. Aber man sollte genuin menschliche Aufgaben nicht abschaffen und in die Hände einer Technik legen, die das sicher nicht besser machen wird als der Mensch.
Das Gespräch führte IMABE-Redakteurin Debora Spiekermann.