Kommentar zur Ethikkommission der BÄK
KI: Die wichtige Frage des Systemvertrauens
Soll Künstliche Intelligenz helfen, die Versorgung zu verbessern, müssen auch ihre Risiken und Grenzen diskutiert werden. Dass sich die Ethikkommission der BÄK hier als Anwalt aller Patienten und Ärzte sieht, ist daher gut und wichtig.
Veröffentlicht:Künstliche Intelligenz (KI) hat – je nach Betrachter – etwas Faszinierendes oder etwas Grauenhaftes. Nicht wegzudiskutieren ist, dass im Zuge der fortschreitenden Digitalisierung des deutschen Gesundheitswesens KI-basierte klinische Entscheidungsfindungssysteme (Clinical Decision Support Systems/CDSS) immer mehr Eingang finden werden in den medizinischen Versorgungsalltag.
KI gegenüber offen eingestellte Ärzte und Patienten mögen dies faszinierend finden, ablehnende Vertreter beider Gruppen eher grauenhaft. Fakt muss aber sein, das untermauert die Zentrale Ethikkommission (ZEKO) bei der Bundesärztekammer in ihrer jetzt veröffentlichten Stellungnahme zur „Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intelligenz“, dass beide Protagonisten in unserem Gesundheitssystem ihren Platz haben – und zwar ihren berechtigten. Die ZEKO bringt hier den wichtigen Begriff des Systemvertrauens ins Spiel. Sie meint das Vertrauen in die organisierte Gesundheitsversorgung in Deutschland.
Eine rote Linie ist für sie, wenn Patienten, aber auch Ärzte mit CDSS überfordert sind und ihnen keine Alternative angeboten wird. Die ZEKO unterwirft sich also nicht einem unabdingbaren Fortschrittsglauben, dessen Vertreter KI wie eine Monstranz vor sich hertragen, sondern gibt sich auch als Anwalt der Patienten und Ärzte, die die Möglichkeiten der Technik nicht ausreizen wollen und daher auf manche Option in Diagnostik, Therapie oder auch beim Krankheitsmanagement verzichten möchten.
Das Systemvertrauen kann bei KI-Befürwortern wie -Skeptikern nur aufrechterhalten werden, wenn zumindest auf ärztlicher Seite die Bereitschaft besteht, sich mit den Chancen und Risiken KI-basierter CDSS auseinanderzusetzen. Dazu gehört auch die Bereitschaft, verstehen zu wollen, auf Basis welcher Algorithmen die KI zu welcher Aussage kommt. Das rät allein schon der gesunde Menschenverstand. Denn: KI entlässt Ärzte nicht aus der Haftung für ihr Handeln.
Schreiben Sie dem Autor: matthias.wallenfels@springer.com