Radiologie

Von Endzeitstimmung keine Spur

Ersetzen Maschinen bald den Radiologen? Wohl kaum! Diagnosen zu stellen, ist etwas anderes, als Auffälligkeiten zu finden.

Dr. Thomas MeißnerVon Dr. Thomas Meißner Veröffentlicht:

Wenn es um die Zukunft der Radiologie geht, stöhnen die einen über zweistellige Zuwachsraten in der Schnittbildgebung, die anderen sehen die Disziplin bereits dem Tode nahe: Künstliche Intelligenz mache Radiologen künftig unnötig meint zum Beispiel der Medizinethiker Professor Ezekiel Emanuel von der University of Pennsylvania in Philadelphia.

Tatsache ist, dass in Deutschland dem rasch steigenden Bedarf an bildgebender Diagnostik, geschuldet der Multimorbidität, der Altersstruktur der Bevölkerung sowie immer neuen Therapieoptionen, eine allenfalls langsam wachsende (!) Zahl an Radiologen und medizinisch-technischem Personal gegenüberstehe, sagte Professor Maximilian Reiser, renommierter Radiologe am Klinikum der Universität München (LMU), beim Deutschen Röntgenkongress 2018 in Leipzig. Anders ausgedrückt: Die Aufgaben werden immer größer und sind mit dem vorhandenen Personal kaum noch zu bewältigen. „Einfach härter zu arbeiten, ist keine nachhaltige Lösung“, meinte Reiser.

Die Option der digitalen Unterstützung bei der alltäglichen Bildanalyse liegt somit auf der Hand. Angstmache hilft dabei ebenso wenig wie euphorische Übertreibung. Dr. Jörg Menche, Physiker am Forschungszentrum für molekulare Medizin (CeMM) der Österreichischen Akademie der Wissenschaften in Wien, warnt vor einer Überschätzung Künstlicher Intelligenz. Man sei noch weit entfernt davon, dass Maschinen bei schlecht definierten Aufgabenstellungen weiterhelfen könnten.

Großes Potenzial sieht er dagegen bei klar umrissenen Fragestellungen auf breiter Datengrundlage: „Ich habe ein Röntgenbild und suche nach Auffälligkeiten oder ich möchte einen gut- von einem bösartigen Hauttumor unterscheiden.“ Ein Computer könne mit hunderttausenden von Bildern gefüttert werden, versehen mit der Information „gutartig“ oder „bösartig“. „Dann kann der Computer lernen, entsprechend neue Bilder zu lesen und zu analysieren.“ Es geht in erster Linie darum, stark repetitive, langweilige, den Menschen isolierende Arbeitsanteile auf Maschinen zu übertragen sowie darum, die mit diversen bildgebenden Verfahren erhobenen Datenschätze vollständig zu heben – etwa durch Fusion von Daten aus verschiedenen bildgebenden Verfahren.

Leicht zu erreichen ist das nicht unbedingt, wie jüngst eine US-Studie gezeigt hat: 1,1 Millionen Röntgenaufnahmen des Thorax waren genutzt worden, um einen digitalen Auswertungsalgorithmus zu erstellen. Im direkten Vergleich mit vier Test-Radiologen, zwei davon waren erfahren und galten als Referenz, ergab sich eine allenfalls durchwachsene Leistung des Computers. Pleuraergüsse, pulmonale Verschattungen oder einen vergrößerten Herzschatten erkannte der Algorithmus ebenso gut wie die Testradiologen. An der Zuordnung implantierter Portkatheter oder Herzschrittmacher scheiterte die künstliche „Intelligenz“. Die Genauigkeit des Programms ließ ebenfalls zu wünschen übrig. Deep Learning, so die Autoren, könne zwar die Arbeit von Radiologen unterstützen, aber nicht ersetzen (PLoS ONE 2018; online 4. Oktober).

Längst verwenden Radiologen, etwa bei der CT- und MRT-Bildgebung bei akutem Schlaganfall, automatisierte Analysealgorithmen, etwa um festlegen zu können, welcher Patient von einer mechanischen Thrombektomie profitieren würde und welcher nicht. Hier geht es um geeignete Behandlungszeitfenster und damit auch um Analyse-Geschwindigkeit. So existieren verschiedene Programme, die MR- und CT-Perfusionsdaten des Gehirns innerhalb weniger Minuten vollautomatisch in Perfusionskarten umwandeln. Falsch-positive Befunde sollen ebenso reduziert werden wie falsch-negative. Problem: Unterschiedliche Systeme erstellen unterschiedliche Perfusionskarten. Welche Parameter den Infarktkern im Gehirn definieren und welche Geweberegion als „tissue at risk“ gilt, kann frei eingestellt werden (Nervenarzt 2018; 89: 885-894). Letztlich bestimmt also der Mensch in Relation zu den aktuell zur Verfügung stehenden therapeutischen Möglichkeiten, was mehr oder weniger pathologisch ist.

„Es ist ein großer Unterschied, ob künstliche Intelligenz Auffälligkeiten entdecken oder ob sie Diagnosen stellen soll“, machte Stephen Holloway, Direktor von Signify Research kürzlich klar, einem britischen Unternehmen, das sich mit Anwendungen von Informationstechnik im Gesundheitssektor befasst. Maschinelles Lernen kann helfen, die Genauigkeit der Diagnostik zu verbessern. Das funktioniert, solange klar ist, welche Standards gelten. Häufig existieren solche Standards noch nicht. Und nicht jedes Problem in der Medizin lässt sich binär auf „gut“ oder „schlecht“ reduzieren.

Mehr zum Thema

Kommunikation und Datenschutz

Neue Perspektiven für IT in der Praxis

Frühjahrstagung des Hausärztinnen- und Hausärzteverbands

Herzinfarkt oder Panikattacke? Der Chatbot weiß Bescheid

Kommentare
Vorteile des Logins

Über unser kostenloses Login erhalten Ärzte und Ärztinnen sowie andere Mitarbeiter der Gesundheitsbranche Zugriff auf mehr Hintergründe, Interviews und Praxis-Tipps.

Haben Sie schon unsere Newsletter abonniert?

Von Diabetologie bis E-Health: Unsere praxisrelevanten Themen-Newsletter.

Das war der Tag: Der tägliche Nachrichtenüberblick mit den neuesten Infos aus Gesundheitspolitik, Medizin, Beruf und Praxis-/Klinikalltag.

Eil-Meldungen: Erhalten Sie die wichtigsten Nachrichten direkt zugestellt!

Newsletter bestellen »

Top-Meldungen

Kommunikation und Datenschutz

Neue Perspektiven für IT in der Praxis

Lesetipps
Ulrike Elsner

© Rolf Schulten

Interview

vdek-Chefin Elsner: „Es werden munter weiter Lasten auf die GKV verlagert!“