Öffentliche Anhörung

Ethikrat: Vier verschiedene Sichtweisen von KI-Forschern

Wie soll Deutschland mit KI im medizinischen Kontext und anderen Szenarien umgehen? Der Ethikrat ist auf Positionssuche. Deswegen hat er vier KI-Forscher angehört. Eine Übersicht über ihre Standpunkte.

Von Matthias WallenfelsMatthias Wallenfels Veröffentlicht:
Diagnostik: Auf Basis welcher Algorithmen entscheidet die KI? Dies könnte für den Ethikrat eine zentrale Frage sein.

Diagnostik: Auf Basis welcher Algorithmen entscheidet die KI? Dies könnte für den Ethikrat eine zentrale Frage sein.

© PhonlamaiPhoto / Getty Images / iStock

Berlin. Was Patienten mit Locked-in-Syndrom, Demenz oder Parkinson durch den Einsatz Künstlicher Intelligenz (KI) helfen kann, kann aber auch die Steilvorlage zum datenschutzrechtlich bedenklichen Machtmissbrauch durch kommerzgetriebene, vor allem US-amerikanische Anbieter dienen, so das Fazit der öffentlichen Anhörung des Deutschen Ethikrates vom Donnerstag zum Thema „KI und Mensch-Maschine-Schnittstellen“.

Die Arbeitsgruppe Mensch und Maschine des Deutschen Ethikrates beschäftigt sich derzeit mit den gesellschaftlichen Auswirkungen der Digitalisierung und den damit verbundenen ethischen Fragen des Verhältnisses von Mensch und Maschine. Im Mittelpunkt stehen Entwicklungen auf dem Gebiet der KI und die immer stärkere Durchdringung aller Lebensbereiche mit digitalen Technologien.

Vier Sachverständige angehört

Im Rahmen der öffentlichen Anhörung hat der Ethikrat vier Sachverständige um Stellungnahmen gebeten, die sich mit der Entwicklung algorithmischer Systeme, maschinellem Lernen und möglichen Schnittstellen und Interaktionen zwischen Menschen und komplexen Maschinen beschäftigen. Dabei äußerten sie sich zum aktuellen Stand und zu absehbaren Entwicklungen ihrer Forschung.

Die Professorin für Theorie des Maschinellen Lernens (ML) spricht KI jede Form der menschlichen Intelligenz ab. Diese sei nicht erkennbar und auch in Zukunft nicht erwartbar. ML sei lediglich das Ergebnis eines programmierten, menschengesteuerten Lernens – mit dem Nebeneffekt des Bias, des Verzerrens durch die Art der Algorithmenmodellierung. Das Dilemma aus ihrer Sicht: KI könne Ärzte dabei unterstützen, Hautkrebs zu detektieren, aber auch Regierungen dabei helfen, autonome Waffensysteme gezielt gegen definierte Gegner einzusetzen – auch ohne demokratische Legitimation. Das Kernproblem sieht von Luxburg in der Erklärbarkeit: Auch für Ärzte könne die Entscheidung eines KI-Tools im Hinblick auf eine Hautkrebs-Diagnostik nicht nachvollziehbar sein – und zwar dann, wenn die Algorithmen nicht transparent seien.

Von Luxburg plädiert mit Blick auf die legislative Ebene für eine klare Regulierung im Hinblick auf die rechtlichen Leitplanken für ein wissenschaftliches und auch wirtschaftliches Engagement in puncto KI. Auf der wissenschaftlichen Ebene fordert sie Transparenz dahingehend ein, dass nachvollziehbar sei, ob alle Akteure im Rahmen des konsentierten demokratischen Verständnisses ihrer Forschung nachkämen. Auch für Wirtschaftsakteure in Europa fordert sie mehr diesbezügliche Kontrolle. Ihre Warnung an die Politik: „Jeder, der Informatik studiert hat, kann mittels Maschinellen Lernens manipulieren.“

Der Professor in Computational Neuroscience and Machine Learning erinnert daran, dass seit Beginn der industriellen Revolution durch die zunehmende Automatisierung ein enormer Produktivitätszuwachs erreicht werden konnte. Diese Automatisierung habe aber eine massive Umstellung der Arbeitsprozesse erfordert, zum Beispiel in Form von Fließbandarbeit oder dem Großmaschineneinsatz in der Landwirtschaft mit vielfältigen negativen Konsequenzen für Mensch, Natur und Umwelt. Der Grund dafür liege in der sehr begrenzten Fähigkeit der klassischen regelbasierten KI- und Automatisierungstechnik, sich an eine variable Umwelt anzupassen.

Das letzte Jahrzehnt sei vom Siegeszug des maschinellen Lernens gekennzeichnet gewesen. Auch wenn die lernende KI weit davon entfernt sei, ausgereift zu sein, nehme der Grad an Flexibilität und Robustheit kontinuierlich zu. Ein entscheidendes Ziel nachhaltiger, menschenzentrierter KI-Forschung sollte daher sein, auf Basis des maschinellen Lernens eine Trendwende zu schaffen, damit sich in Zukunft Maschinen an die Bedürfnisse von Mensch, Natur und Umwelt anpassen und nicht umgekehrt, so Bethges Plädoyer.

Der Geschäftsführende Direktor des Leibniz Instituts für Neurobiologie und Professor für molekulare und zelluläre Neurobiologie an der Otto von-Guericke-Universität Magdeburg, warnt vor zu vielen Heilsversprechen, die derzeit vor allem von Unternehmensseite gemacht würden. Diese reichten von durch KI-Tools zu leistenden Erleichterungen für Patienten mit Blindheit, Taubheit, Lähmungen, Angststörungen, Depressionen oder neurodegenerativen Erkrankungen bis zur Anwendung zur Expansion kognitiver Ressourcen, zur Verhaltensmodulation und als digitale Kommunikationsschnittstelle. Hierfür fehlten noch neurobiologische Erkenntnisse über die Kommunikation von Nervenzellen im menschlichen Gehirn und neuronale Plastizität, was durch den Einsatz von KI-basierten Methoden kompensiert werden solle.

Die Professorin für Kognitive Systeme im Fachbereich Mathematik und Informatik an der Universität Bremen und Direktorin des Cognitive Systems Laboratory arbeitet an der Schnittstelle zwischen Informatik und Medizin. Die Entwicklung autonomer, intelligenter technischer Systeme, kurz Kognitive Systeme genannt, verlaufe rasant. Durch das Zusammenspiel von Maschinellen Lernverfahren, Big Data und Super Computing erreichten sie in Spezialgebieten bereits Human Parity – also seien sie auf Augenhöhe mit dem Menschen.

Von zukünftigen Kognitiven Systemen werde erwartet, dass sie das individuelle Wohlbefinden ihrer Nutzer steigern und Aufgaben des täglichen Lebens übernehmen. Hier tue sich das ethisch aufgeladene Spannungsfeld zwischen der Hilfe für zum Beispiel Patienten mit Locked-in-Syndrom oder auch Demenz und des Human Enhancement auf. Gehe es bei Ersterem um die technische Assistenz der Patienten dergestalt, dass die KI als Transformator diene, Willensäußerungen zu transkribieren/verlautbaren, stehe bei Letzterem das ethisch fragwürdige Menschen-Tuning auf der Tagesordnung.

Wie Schultz betont, sei KI schon längst im Alltag der Menschen angelangt – zur Akquise persönlicher Daten ausnutzen. Dabei würden Menschen rund um die Uhr mit vernetzten Sensoren vermessen: Zu Hause stehen Kamera und Mikrofon, für unterwegs wird das Handgelenk zum Datenhub, ausgestattet mit Inertialsensoren und Elektroden. „Der Trend geht unter die Haut, denn neuartige Sensoren und Chips könnten injiziert oder implantiert werden. Eine differenzierte Auseinandersetzung mit individuellen, gesellschaftlichen und politischen Konsequenzen, die durch die Nutzung derartiger Systeme entstehen, ist von gewinnorientierten IT-Firmen und Überwachungsstaaten nicht zu erwarten“, so Schultz. Vielmehr sollten demokratische Regierungen durch öffentlich geförderte Programme eine kritische Erforschung und Entwicklung von Kognitiven Systemen unterstützen, die Grundrechte respektieren, Nutzer befähigen, ihre Daten zu kontrollieren, Transparenz und Erklärbarkeit der Algorithmen als Open Source umsetzen sowie bestmöglich vor potenziellem Missbrauch und Risiken schützen, fordert sie.

Mehr zum Thema
Kommentare

Sie müssen angemeldet sein, um einen Kommentar verfassen zu können.
Die Newsletter der Ärzte Zeitung

Lesen Sie alles wichtige aus den Bereichen Medizin, Gesundheitspolitik und Praxis und Wirtschaft.

NEU als Themen abonnierbar: Frauengesundheit und Kindergesundheit

Newsletter bestellen »

Vorteile des Logins

Über unser kostenloses Login erhalten Ärzte, Medizinstudenten, MFA und weitere Personengruppen viele Vorteile.

Die Anmeldung ist mit wenigen Klicks erledigt.

Jetzt anmelden / registrieren »

Top-Meldungen
Joggen soll erlaubt sein, auch nach 22.00 Uhr. Dies dann aber nur noch alleine, geht aus Änderungsanträgen zum 4. Bevölkerungsschutzgesetz hervor.

Infektionsschutzgesetz

Koalitionsfraktionen basteln an der „Notbremse“