Künstliche Intelligenz
TÜV-Verband fordert gesetzliche Leitplanken
Der TÜV-Verband kritisiert Regelungslücken beim Einsatz Künstlicher Intelligenz und sieht Handlungsbedarf – auch auf medizinischem Gebiet.
Veröffentlicht:Berlin. Der TÜV-Verband (VdTÜV) fordert strengere Regeln zur Prüfung von Anwendungen, die unter Einsatz sogenannter Künstlicher Intelligenz (KI) funktionieren.
Insbesondere „wenn Gefahren für die Gesundheit von Menschen oder deren elementare Grundrechte bestehen, sind klare Leitlinien für die Anbieter, Entwickler und Nutzer von KI-Anwendungen notwendig“, so Michael Fübi, Präsident des VdTÜV, am Montag in Berlin.
Entwicklung in der Medizin gut, aber...
Das betrifft auch medizinische Diagnostik auf Basis von Algorithmen, die in diversen Studien immer wieder ärztliche Expertise auf den Prüfstand stellt – und bei bildgebenden Verfahren häufig eine geringe Fehlerquote aufweisen als ihre menschliche Konkurrenz. „Das sind aber nur Einsatzfälle. Algorithmen bilden nicht das gesamte menschliche Spektrum ab“, zeigt Fübi Grenzen auf.
Patienten scheinen ihm zuzustimmen, wie die heute vom VdTÜV veröffentlichte repräsentative Studie „Sicherheit und Künstliche Intelligenz“ zeigt. Sie sagen mehrheitlich, dass KI Ärzte unterstützen, aber keine Entscheidungen treffen sollte (69 Prozent).
Nach wie vor vertrauen sie ihrem Arzt mehr als einem Algorithmus (79 Prozent). Nur 24 Prozent würden auf die ausschließliche Empfehlung der Algorithmen vertrauen.
Insgesamt bewerteten die Befragten die Weiterentwicklungen Künstlicher Intelligenz in der Medizin positiv (65 Prozent). Anders in der Altenpflege, wo die Befürchtung besteht, KI-Anwendungen könnten menschliche Kontakte ersetzen; hier sind die Befragten für algorithmenbasierte Technik weniger aufgeschlossen (49 Prozent).
Unabhängige Prüfungen gefordert
Fübi fordert, KI-Anwendungen zeitnah in Risikoklassen einzuordnen und in Abhängigkeit von ihrem Risiko zu prüfen. Die Prüfung von KI-Systemen mit hohem oder sehr hohem Risiko sollte von unabhängigen Prüforganisationen vorgenommen werden. Voraussetzung für herstellerunabhängige Prüfungen algorithmischer Systeme ist der Zugang zu den dafür notwendigen sicherheitsrelevanten Daten.
Bis dato fehle Prüforganisationen der Zugang, kritisiert Fübi. Für lernende KI-Systeme seien zudem fortlaufende Prüfungen nötig, periodische Prüfungen seien im digitalen Zeitalter überholt. (mu)