Bioethik aktuell

Ärzte sollen KI nutzen, richtig einschätzen und auch kontrollieren: Ist das nicht zu viel verlangt?

US-Studie kritisiert „übermenschliche Erwartungen" durch KI: Druck und Unsicherheit bei Ärzten steigen

Lesezeit: 04:04 Minuten

Künstliche Intelligenz soll Ärztinnen und Ärzte unterstützen, Diagnosen zu verbessern und Fehler zu verringern. Gleichzeitig sollen sie die Verantwortung tragen, fehlerhafte Empfehlungen der Systeme zu erkennen und im Zweifel zu überstimmen. Diese doppelte Anforderung birgt ein Paradox: Anstatt zu entlasten, könnte KI die Arbeitsbelastung noch vergrößern, wie eine aktuelle US-Studie zeigt.

© Freepik

Einerseits bietet KI die Chance, Diagnosen zu präzisieren und Gesundheitsfachkräfte in Administration und Logistik zu entlasten. Die Kehrseite der Anwendung von KI-Systemen – vor allem im Kontext der klinischen Entscheidungsfindung (CDSS) – liegt in der erweiterten Verantwortung von Ärzten, derartige Systeme richtig anzuwenden. Dass es dabei zu „übermenschlichen Erwartungen" kommen kann und wie man diesen besser begegnen soll, untersucht eine aktuelle Studie im JAMA Health Forums (2025).

Ärzte müssen zwischen ihrem eigenen Urteil und KI-Ergebnis navigieren  

Dass Ärzte klinische Entscheidungen immer fehlerfrei treffen, ist de facto nicht erfüllbar. Doch mit dem Einzug von KI in den klinischen Alltag wird diese Erwartung verstärkt. Neue Kompetenzen werden verlangt mit dem Ziel, dass Mediziner KI-Ergebnisse „perfekt" einordnen können.

Ärzte müssen zwei Fehler vermeiden: Einerseits sollen sie der KI nicht übermäßig vertrauen und fehlerhafte KI-Empfehlungen entdecken, andererseits sollen sie der KI aber auch nicht zu sehr misstrauen und korrekte KI-Empfehlungen ablehnen. Die permanente Herausforderung, richtig abzuwägen, könnte Ärzte noch mehr Zeit und Energie kosten, weil sie auf diese Art der Entscheidung nicht vorbereitet sind, so das US-Forscherteam der University of Texas Austin und der John Hopkins University. Unterschätzt würde auch der Druck, immer der KI-Empfehlung folgen zu müssen – der sogenannte „Automation Bias".

Mehr Verantwortung wird zur Last statt Entlastung

Studien zeigen, dass Laien Ärzten eine größere Verantwortung zuschreiben, wenn sie KI nutzen, als wenn sie einen menschlichen Kollegen konsultieren. Gleichzeitig sehen Patienten in den Ärzten die Hauptverantwortlichen auch dann, wenn die KI nachweislich falsch lag. Diese doppelte Erwartungshaltung kann die Entscheidung, wann und wie stark KI-Empfehlungen zu befolgen sind, zu einer enormen Belastung für Mediziner werden. Anstatt Entlastung zu bringen, könnten die erhöhten Erwartungen zu Entscheidungsunsicherheit, Burnout und höherer Fehleranfälligkeit führen, so die Wissenschaftler.

Undurchsichtigkeit verschärft das Problem

Die Herausforderungen werden verschärft, da viele KI-Systeme undurchsichtig sind („Blackbox“) und nicht nachvollziehbar ist, wie Empfehlungen zustande kommen. Ärzte äußern häufig Bedenken hinsichtlich der mangelnden Interpretierbarkeit und Transparenz der KI-Ergebnisse, was umgekehrt zu einer übervorsichtigen Haltung führen könnte.

Deutsche Ethiker: Die ärztliche Entscheidung bleibt unverzichtbar

Wie gestalten sich ärztliche Entscheidungen im Zeitalter von KI? Florian Funer und Urban Wiesing (Institut für Ethik und Geschichte in der Medizin, Universität Tübingen) gingen dieser Frage nach (Frontiers in Medicine, 2024). Ihr Fazit: Die Entscheidungsautonomie – die sich immer auf das Wohl des Patienten auszurichten hat – ist ein zentraler Bestandteil des ärztlichen Ethos und kann nicht durch KI ersetzt werden. Zwar können KI-Systeme große Datenmengen auswerten, ihre Empfehlungen bleiben jedoch statistisch und kontextblind. Jede Patientensituation erfordert das Urteil des Arztes, der Fachwissen, Erfahrung und die individuellen Präferenzen des Patienten miteinander verbindet. Ein besonderes Risiko sehen die Ethiker im „De-skilling“, dem schleichenden Verlust ärztlicher Kompetenzen Fähigkeiten durch Nichtnutzung oder abnehmende Relevanz infolge der Nutzung von KI.

Die Letztverantwortung trägt der behandelnde Arzt

Die Forscher betonen, dass KI aktuell keinen Grund bietet, die fundamentalen Prinzipien ärztlicher Verantwortung aufzugeben. Ärztinnen und Ärzte tragen die letzte Verantwortung für klinische Entscheidungen. KI dürfe die Entscheidungsautonomie nicht relativieren, sondern müsse sich den bestehenden ethischen Normen unterordnen.

Die ärztliche Freiheit, auch gegen KI zu entscheiden, muss bleiben

Für den Einsatz von KI-Systemen entwickeln die Autoren institutionelle Rahmenbedingungen, um die ärztliche Entscheidungsfreiheit und Urteilskraft zu schützen: KI dürfe nicht so implementiert werden, dass sie indirekt auf Ärztinnen und Ärzte faktisch Druck ausübt, ihre Empfehlungen unkritisch zu übernehmen. Ärzte müssten die Freiheit beibehalten, begründete Entscheidungen auch gegen KI-Empfehlungen zu treffen – ohne institutionellen Druck. Dafür brauche es als Voraussetzung volle Transparenz über Funktionsweise und Grenzen der Systeme sowie ausreichend Zeit für ärztliche Prüfung.

Die Basis bleibt das kompetente und empathische ärztliche Handeln

Die gelungene Integration von KI in die Entscheidungsprozesse ist nicht allein von weiteren Regulierungen abhängig. Gutes ärztliches Handeln, Empathie und Kommunikation sind essenziell und müssen durch Erfahrung erlernt werden. Die Ausbildung kompetenter und personenzentrierter Ärztinnen und Ärzten bilden den Kern, damit auch in einer zunehmend digitalisierten Medizin Patienten in einem umfassenden Sinn gut versorgt werden.

KI-Kompetenzen müssen im medizinischen Curriculum integriert werden

Ein Weg, den Umgang mit KI zu erlernen und sie sinnvoll zu integrieren, besteht darin, KI-Kompetenzen bereits in medizinische Ausbildung mitaufzunehmen. Forscher sehen einen großen Bedarf für derartige Ausbildungsmodelle.

Unter Berufung auf eine südkoreanische Studie betonen die Ethiker, dass angehende Mediziner sowohl technische Grundlagen der KI als auch deren ethische und rechtliche Dimension verstehen müssen. Dazu gehören das Verständnis digitaler Gesundheitssysteme, die praktische Anwendung von KI-Tools in der Klinik sowie der kompetente Umgang mit medizinischen Daten und KI-Forschung.

Ergänzend könnten KI-Fortbildungen für bereits praktizierende Ärzte zur sinnvollen Integration von KI-Systemen beitragen. Die curriculare Verankerung von KI-Kompetenzen soll verhindern, dass Ärzte in eine passive Rolle gedrängt werden. Ethische Aspekte seien in der Ausbildung genauso relevant wie technisches Fachwissen.

Institut für Medizinische
Anthropologie und Bioethik
Unterstützt von: