Möglichkeiten der Künstlichen Intelligenz
KI-Tools können die Rolle von Biomarkern einnehmen
Die Künstliche Intelligenz wird immer besser. Die KI-Tools bieten neue Möglichkeiten, auch in der Onkologie. Welche, das war Thema beim Krebskongress.
Veröffentlicht:
Inzwischen wird immer klarer, was alles in der Medizin mit KI möglich ist. Jetzt kommt es darauf an, auszuwählen, was auch wirklich Sinn macht zum Nutzen der Patientinnen und Patienten, betont ein Oberarzt beim Krebskongress.
© BURINKUL / stock.adobe.com / generated AI
In rasanter Geschwindigkeit haben sich immer bessere Instrumente der Künstlichen Intelligenz (KI) entwickelt. Die lernenden Systeme können inzwischen verschiedene klinische Daten, ob aus der Bildgebung, dem Labor und sogar aus in Freitext verfassten klinischen Berichten, interpretieren und Diagnose- oder Therapievorschläge machen. Und nun?
Die jüngsten KI-Tools sind KI Agents, die verschiedene KI-Modelle zur Auswertung von Bild, Text und anderen Daten kombinieren. Sie können in der Onkologie zukünftig beispielsweise die Rolle von Biomarkern einnehmen, müssen dabei aber die gleichen Schritte der evidenzbasierten Medizin durchlaufen und für jede Entität validiert werden wie klassische Biomarker, erklärte Professor Jakob Nikolas Kather am Donnerstag beim Deutschen Krebskongress (DKK) in Berlin. Kather ist Onkologe und Professor für Medizin und Informatik am Else Kröner Fresenius Center for Digital Health (EKFZ) der Technischen Universität Dresden.
Die European Society for Medical Oncology (ESMO) hat in einem Expertenkonsensus die Anforderungen dafür beschrieben (Ann Oncol. 2026;37(3):414-430).
Auch für die Umsetzung von Large Language Modellen (LLM) in die klinische Routine wurden von der ESMO Empfehlungen publiziert (2025;36(12):1447-1457). LLM sind in der Lage, natürliche Sprache und andere Arten von Inhalten auch in ihrer Bedeutung zu verstehen und selbst zu generieren.
Nicht einfach mal ChatGPT fragen!
Der bekannteste Vertreter, ChatGPT, ist inzwischen mehr als ein LLM, es ist bereits ein KI Agent. Rechtlich ist es in Deutschland Ärztinnen und Ärzten nicht erlaubt, Patientendaten in KI-Anwendungen wie ChatGPT hochzuladen, betonte Privatdozent Dr. Sebastian Försch, Oberarzt am Institut für Pathologie des Universitätsklinikums Mainz und ärztlicher Leiter der AG digitale Transformation und KI.
Die Erkrankten selbst machen das vielfach und vernachlässigen dabei den Schutz ihrer persönlichen Daten. Kliniken müssen zum Schutz von persönlichen Daten der Behandelten auf hauseigene Lösungen setzen oder für KI-Anwendungen Cloud-Anbieter in Deutschland oder Europa einbeziehen, die eine hohe Datensicherheit gewährleisten können.
Nichts tun ist keine Option, betonte Försch: Dann entsteht eine unkontrollierte Grauzone, weil Behandelnde eben doch die Möglichkeiten der KI für die Patientenversorgung nutzen – auf ihrem eigenen Smartphone.
KI in der Routine – wo geht es hin?
Inzwischen wird immer klarer, was alles in der Medizin mit KI möglich ist. Jetzt kommt es darauf an, auszuwählen, was auch wirklich Sinn macht zum Nutzen der Patientinnen und Patienten, forderte Försch.
Aktuell ist er nicht sehr optimistisch, dass der Einsatz von KI-Tools in der onkologischen Versorgung in Deutschland in den nächsten fünf Jahren breit etabliert wird.
Dabei liegt in einigen Fällen der Nutzen auf der Hand. Im Tumorboard können KI Agents beispielsweise bereits sehr gute Analysen der komplexen Daten für die Therapieentscheidung liefern und nicht nur Vorschläge für die Therapie machen, sondern gleich auch die Argumentation für einen Off-label-Antrag mitliefern.
Themenseite
Alles zum Deutschen Krebskongress
Die Verantwortlichkeit für medizinische Empfehlungen und Entscheidungen bleibt aber beim behandelnden Team, betonte Dr. Isabella Catharina Wiest vom EKFZ in Dresden.
Försch wies in diesem Zusammenhang darauf hin, es müsse definiert werden, was an Kenntnissen auch in Zukunft bei Onkologinnen und Onkologen vorauszusetzen ist, um die Patientensicherheit bei einem breiten Einsatz von KI zu gewährleisten.
Bei der regelhaften Nutzung von KI droht die Gefahr der Abnahme des eigenen Könnens und Wissens, weil der Anwendende sich zu sehr auf die KI verlässt. (fk)












