Ärzte Zeitung online, 10.03.2017
 

Künstliche Intelligenz

Sichere Assistenten für Ärzte?

Künstliche Intelligenz und Robotik sollen Behandlungen besser und effizienter machen, werfen mit Blick auf den ärztlichen Alltag aber noch viele Fragen auf.

MÜNCHEN. Künstliche Intelligenz (KI) bietet Medizinern heute Möglichkeiten, die sich bis vor wenigen Jahren kaum jemand vorstellen konnte. Am Beispiel existierender Technologien diskutierten Experten Chancen und Grenzen dieser Systeme vor Kurzem beim Kongress der Stiftung Münch in München. Denn sie sind auf dem Weg die Arbeit in Praxis und Klinik zu revolutionieren. Da wäre etwa "Watson" (wir berichteten), das aufgrund der intelligenten Analyse umfangreicher Daten Diagnosen stellen und Therapien vorschlagen kann.

Das IBM-Produkt ist in der Entwicklung, wird aber schon klinisch angewendet. Im Gesundheitswesen wird mit den KI-Systemen eine höhere Qualität von Diagnostik und Behandlung angestrebt. Zudem sollen Gesundheitssysteme durch mehr Effizienz entlastet werden. In Japan werden inzwischen Pflegeroboter eingesetzt, um Senioren zu betreuen. KI sind auch bei den Gesundheits-Apps präsent. Dort finden sich Systeme, die aus der Menge der Anwender-Inputs eigenständig lernen. Lernen aber bedeutet Veränderung, und wie sich diese gestaltet, ist nicht immer vollständig vorhersagbar. Professor Michael Decker vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) sagte beim Kongress, dass die neuen Systeme unter anderem deswegen große Anforderungen stellen.

Um Sicherheit zu gewährleisten, müsse für selbstlernende Roboter und Technologien ein regulatorischer Rahmen entwickelt werden. Sie müssten für Menschen vorhersagbar bleiben, durchschaut und kontrolliert werden können. "Das ist eine hohe Anforderung an die Robotik", stellte Decker fest. Ein zentraler Aspekt sei zudem die Implementierung. Inwiefern entspricht eine KI, ein Programm oder ein Roboter realen Bedürfnissen von Patienten? Pflegeroboter würden beispielsweise in Japan für tägliche Versorgungsaufgaben akzeptiert – aber nicht dann, wenn es etwa um Sterbebegleitung gehe. Decker zufolge sollten Bedarfsanalysen zeigen, welche Anwendungen möglich und sinnvoll seien.

Es sei wichtig, selbstlernenden Systemen geeigneten Input zu bieten. Sie könnten realen Bedürfnissen nur entsprechen, wenn sie in realen Lebenswelten lernen. Ein stufenweises Vorgehen bei der Erprobung könne Sicherheit schaffen. Es ermögliche, Zwischenschritte zu bewerten, und Nutzerpräferenzen einzubeziehen.

Anwendungen wie "Watson" könnten zu einem Assistenten werden, der beispielsweise einem Chirurgen den optimalen Schnitt vorschlägt. Diskutiert werden müsse jedoch, inwiefern es dafür einen eigenen Informed Consent der Patienten geben müsse. Außerdem könnten sich im Einzelfall schwierige rechtliche Fragen ergeben.

Wer solle haften, falls etwa die Empfehlung einer KI zu einer medizinischen Fehlentscheidung führt? Durch das autonome Lernen verändert sich eine KI ständig. Es sei nicht geklärt, inwiefern der Hersteller der Ausgangsversion dann noch Verantwortung trage. Möglicherweise, so Decker, entstehe hier ein rechtlicher Graubereich. (cmb)

Schreiben Sie einen Kommentar

Überschrift

Text

Die Newsletter der Ärzte Zeitung

Lesen Sie alles wichtige aus den Bereichen Medizin, Gesundheitspolitik und Praxis und Wirtschaft.

Weitere Beiträge aus diesem Themenbereich

Statine mit antibakterieller Wirkung

Die kardiovaskuläre Prävention mit einem Statin schützt möglicherweise auch vor Staphylococcus-aureus-Bakteriämien. Das hat eine dänische Studie ergeben. mehr »

Das steht in der neuen Hausarzt-Leitlinie

Die brandneue S3-Leitlinie Multimorbidität stellt den Patienten als "großes Ganzes" in den Mittelpunkt – und gibt Ärzten eine Gesprächsanleitung an die Hand. mehr »

Jamaika – Paritätische Finanzierung ist vom Tisch

Ein neues Sondierungspapier zeigt: Die potenziellen Jamaika-Partner suchen nach dem kleinsten gemeinsamen Nenner in der Gesundheitspolitik. mehr »