E-HEALTH-COM ist das unabhängige Fachmagazin für Gesundheitstelematik, vernetzte Medizintechnik , Telemedizin und Health-IT für Deutschland, Österreich und die Schweiz.
Mehr

Für das ePaper anmelden

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden

Anmelden

Passwort vergessen?

Top-Thema |

"Der Autopilot für den Radiologen ist keine Zukunftsvision mehr"

Im Rahmen des dritten ETIM-Summit versammelten sich am Universitätsklinikum Essen viele,
die die digitale Zukunft der Medizin heute schon gestalten wollen. Künstliche Intelligenz ist dabei ein
wichtiger Baustein. Geht es voran? Für Professor Michael Forsting, Direktor des Instituts für Diagnostische und Interventionelle Radiologie und Medizinischer Geschäftsführer (CMO) am UK Essen, ist das keine Frage.

Foto: © UK Essen

Welches sind für Sie beim KI-Einsatz in der Radiologie die wichtigsten Entwicklungen der vergangenen zwölf Monate?
Wir sind wieder ein Stück weitergekommen. Wenn wir unser eigenes Klinikum nehmen: Wir setzen selbstlernende Algorithmen jetzt in mehreren Anwendungsbereichen zum Teil auch schon routinemäßig ein und entlasten damit unsere Radiologen von Alltagstätigkeiten. Zum einen zählen wir die Herde im Gehirn bei Multipler Sklerose automatisiert aus. Zum anderen nutzen wir Algorithmen für die Bestimmung des Knochenalters, und auch die Diagnostik ischämischer Hirninfarkte per CT läuft teilweise automatisiert. Der Autopilot für den Radiologen ist keine Zukunftsvision, er ist schon da und arbeitet immer zuverlässiger.


Wie ist die Akzeptanz bei Ihren Radiologen?
Mittlerweile empfinden die meisten Radiologen Algorithmen nicht mehr als Bedrohung, sondern als Gewinn für ihr Fach. Wenn eine Software repetitive Tätigkeiten in der Vorprüfung von Befunden übernimmt, dann spart das Zeit, es reduziert aber auch Fehler. Wer bei 15 MS-Patienten am Tag CT-Bilder befundet, der wird irgendwann müde, auch wenn er sich noch so sehr konzentriert.


Es gibt ja immer wieder kritische Stimmen, die sagen, dass Deep Learning in der Radiologie zwar für schöne ­Publikationen gut ist, dass es bei der Integration in den ­klinisch-radiologischen Workflow aber arg hapert. Ist das wirklich so schwierig?
Ja, es ist schwierig. Einer der Gründe ist, denke ich, dass wir an der Schnittstelle zwischen Radiologie und IT nicht genug miteinander reden. In Essen versuchen wir ganz konkret, Ärzte zu den treibenden Kräften unserer Projekte zu machen. Sie entwickeln relevante Fragestellungen, identifizieren „unmet needs“, die sich mit Algorithmen adressieren lassen und sind bei der Einbettung in den Workflow eng beteiligt. Das ist ein entscheidender Erfolgsfaktor. Wenn ich erst fünfmal klicken muss, um die Meinung eines Algorithmus einzuholen, dann behindert das eher, als dass es hilft.


KI muss in den radiologischen Arbeitsplatz so integriert sein, dass man es praktisch nicht merkt. Konkret am Beispiel Knochenalter: Das Bild muss zuerst in die KI-Anwendung laufen, in der das Knochenalter ermittelt wird. Erst danach will ich den Patienten in der Arbeitsliste sehen. Wenn es so läuft, dann habe ich da auch was von. Aber das haben viele Anbieter noch nicht verstanden, oder die Krankenhaus-IT-Infrastruktur macht es schwierig. Fairerweise muss man sagen: Es wird schon besser. Einige Plattformen können das zum Teil schon. Am Ende ist es wie so oft kein technisches Problem.


Alle großen Anbieter in der Radiologie arbeiten derzeit an KI-Plattformen. Wie stellen Sie sich die radiologische KI-Plattform-Welt in Zukunft konkret vor?
Schwierige Frage. Es gibt kommerzielle Softwarealgorithmen, die so gut sind, dass man sie komplett übernehmen kann. Oft stellt sich aber auch heraus, dass die gekauften Algorithmen den Ansprüchen nicht genügen. In den Fällen muss man dann selbst einen Algorithmus trainieren, wenn man diese Möglichkeit hat. Nun kann aber auch eine große Abteilung nicht alles selbst machen, schon weil wir nicht in allen Bereichen genügend gute Trainingsdatensätze haben. In Essen haben wir zum Beispiel keine Rheumatologie, das müssen wir einkaufen. Ich glaube, die ideale Lösung wäre ein Mischmodell. Es wird nicht einen Anbieter weltweit geben. Wir brauchen Plattformen, die trainierte Algorithmen zur Verfügung stellen, die sich aber gleichzeitig öffnen für Schwarmintelligenz. Es gibt viele Einrichtungen, die Daten haben und die auch Interesse hätten, diese Daten zur Verfügung zu stellen, um Algorithmen zu trainieren. Das muss nur sinnvoll organisiert werden.


Sind die hiesigen Datenschutzbestimmungen dabei ein Hindernis?
Ja und nein. Natürlich kann man sich Dinge immer einfacher vorstellen, aber wir wollen ja auch keine chinesischen Verhältnisse. Der Datenschutz ist in Wirklichkeit nicht so behindernd, wie viele meinen. Wenn ich einen Algorithmus zur Knochenaltersbestimmung mit unseren Daten trainiere und den Algorithmus dann auf eine Plattform stelle, dann sind da keine individuellen Patientendaten mehr drin. So etwas würde weder durch Datenschutz- noch durch KRITIS-Vorgaben behindert. Eine klinische Implementierung scheitert in diesen Fällen eher an der lokalen IT-Infrastruktur. Ein bisschen schwie-
riger umzusetzen sind kooperative Szenarien, bei denen die Daten von unterschiedlichen Einrichtungen in einen Trainingsdatensatz einfließen sollen. Aber auch das ist machbar.


Muss sich beim Thema Medizinproduktezulassung etwas ändern, um der neuen Welt der selbstlernenden KI-Algorithmen gerecht zu werden?
Das ist jedenfalls nicht vorrangig. Es gibt auch so etwas wie einen Zertifizierungswahn. Ich glaube, dass wir in der derzeitigen Phase der Anwendungsversuche für KI nicht schon mit dem Regulierungshammer kommen sollten. Das würde die Entwicklung ausbremsen. Natürlich müssen neue Algorithmen wissenschaftlich evaluiert werden, und die, die es ernst meinen, tun das auch. Wenn dann aber für einen Knochenalter-Algorithmus nachgewiesen ist, dass er nicht schlechter als eine gewisse Zahl von Kinderradiologen ist, dann muss es irgendwann auch mal reichen.


Was sind inhaltlich aus Ihrer Sicht die spannenden KI-Themen der nächsten ein, zwei Jahre?
Spannend ist derzeit auf jeden Fall das ganze Gebiet der Radiomics, weil es da nicht nur um Befundungsunterstützung geht, sondern darum, aus Bildern mehr herauszuholen als mit den Augen eines Radiologen möglich. Da gibt es beeindruckende Dinge, teilweise lassen sich molekulargenetische Mutationen eines Tumors aus den MRT-Bildern ablesen. Das ist bei einer normalen Befundung völlig undenkbar, und es wäre natürlich für eine Therapieplanung und gerade auch für ein Therapiemonitoring ziemlich relevant: Es spart Biopsien und ermöglicht trotzdem eine personalisierte Krebsversorgung. Die Radiomics sind übrigens auch ein Schwerpunkt eines neuen „Instituts für Künstliche Intelligenz in der Medizin“, das wir derzeit am UK Essen einrichten und für das wir jetzt insgesamt vier Professuren ausschreiben.


Bei Ihrem Kongress ging es nicht nur um die Radiologie. Wie sieht es jenseits der Bildgebung aus?

Letztlich werden sich die technischen Disziplinen durch die künstliche Intelligenz weniger verändern als die sprechende Medizin. Denn dort, nicht in den technischen Fächern, passieren die meisten Fehler. Wenn ich Blut ins Labor schicke und 28 000 Leukozyten finde, dann wird der Patient schon 28  000 Leukozyten haben. Das muss man heutzutage auch nicht mehr groß kontrollieren. Wenn ich als Radiologe einen Leberherd im CT sehe, dann ist da auch einer, und man kann höchstens noch diskutieren, ob es eine Metastase ist oder nicht. Von solcher Präzision ist die sprechende Medizin weit entfernt. Es kommen jetzt erste Anwendungen, die zum Beispiel die Diagnose einer Depression verbessern, auf Basis von Stimme, Gesichtsausdruck, Körperhaltung oder allem zusammen. So etwas kann enormen Einfluss haben, weil sich dann ein Orthopäde genauer überlegen wird, ob er einen Wirbelsäulenpatienten operiert oder erst einmal anders vorgeht. Der Hebel, die Medizin durch KI qualitativ zu verbessern, ist in der sprechenden Medizin viel größer als in der technischen Medizin.