Ärztliche Fehldiagnose durch ChatGPT – wer haftet?
Johannes T. KayserChatGPT ist momentan in aller Munde. Die Künstliche Intelligenz kann auch in der Arztpraxis und im Krankenhaus die Arbeit erleichtern. Da stellt sich allerdings die Frage, wer haftet, wenn ein Arzt die KI für Diagnosen oder Therapieempfehlungen heranzieht, diese sich irrt und es dadurch beim Patienten sogar zu gesundheitlichen Schäden kommt?
KI-Haftung auf EU-Ebene (Stand: Mai 2025)
Das letzte Wort zum Thema Haftung bei KI-gestützten Diagnosen ist allerdings noch nicht gesprochen: Die Europäische Union arbeitet derzeit an einem einheitlichen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz, der sich auch auf diese Thematik auswirken dürfte. Zwei Gesetzesinitiativen stehen dabei im Mittelpunkt: die KI-Haftungsrichtlinie (AI Liability Directive) und die KI-Verordnung (AI Act).
Die KI-Haftungsrichtlinie soll es geschädigten Personen künftig erleichtern, Schadenersatzansprüche geltend zu machen, wenn ein Schaden durch ein KI-System verursacht wurde. Dazu gehören Beweiserleichterungen sowie eine Auskunftspflicht für Hersteller und Betreiber, um technische Informationen zugänglich zu machen. Ziel ist es, Rechtsunsicherheiten zu beseitigen, insbesondere bei schwer nachvollziehbaren KI-Entscheidungen.
Die KI-Verordnung wiederum legt erstmals europaweit verbindliche Vorgaben für die Entwicklung und Nutzung von KI-Systemen fest. Besonders im Fokus stehen Hochrisiko-Anwendungen, wie sie beispielsweise auch im Gesundheitswesen zum Einsatz kommen. Anbieter solcher Systeme werden demnach verpflichtet, umfangreiche Transparenz- und Dokumentationspflichten zu erfüllen, Risiken systematisch zu analysieren und eine kontinuierliche Überwachung sicherzustellen.
Die Verabschiedung des finalen Verordnungstextes wird bis Ende 2025 erwartet. Schon jetzt zeichnet sich allerdings ab, dass die neuen EU-Vorgaben auch die Haftungsregeln in Deutschland beeinflussen werden – insbesondere bei der Nutzung von KI in sensiblen Bereichen wie der medizinischen Diagnostik.