Health-IT

Lebensgefahr für Radiologen?

06.11.18 · 

Unsere Leser sind nach Lesen des Beitrags zu 75%

Sollten Jungärzte die Radiologie lieber links liegen lassen, um nicht mit künstlichen Intelligenzen um Arbeitsplätze konkurrieren zu müssen? Nein. Doch die Radiologen wird sich ändern.

 

 

Entwickeln sich Maschinenlernalgorithmen zu den Bilderstürmen der Radiologie? Zumindest ist das Thema Künstliche Intelligenz (KI) in der Radiologie reif für die großen Bühnen. Beim 11. Radiologiekongress Ruhr, der in dieser Woche in Dortmund stattfindet, schafft es die digitale Revolution in der Radiologie auf das Hauptplenum. Und ein „Marktplatz für KI-Anwendungen im Westdeutschen Teleradiologieverbund“ bekommt eine eigene Session.

 

 

KI und Maschinenlernen – das waren Themen, die sich jahrzehntelang fast nur entweder in den Fachzeitschriften für Computerwissenschaften oder in populärwissenschaftlichen Monatsmagazinen für technikinteressierte Laien abgespielt haben. Es gab zwar immer schon Mediziner, die sich für Maschinenlernalgorithmen interessiert haben. Aber ernst genommen hat das lange Zeit niemand – und zurecht, denn viele der Versprechen der frühen KI-Forscher konnte die Disziplin bekanntlich längst nicht so schnell einlösen wie gedacht.


Radiologen stehen im Zentrum des Sturms

Doch etwas hat sich geändert in den letzten Jahren. Im Wesentlichen dank wachsender Rechnerkapazitäten und dank der Möglichkeiten, die die Cloud-basierte Datenverarbeitung bietet, sind Maschinenlernalgorithmen erwachsen geworden. Neuronale Netze, um einen der nach wie vor beliebtesten Ansätze zu nennen, nutzen heute wesentlich mehr Schichten als früher, sie können wesentlich schneller trainiert werden und werden damit potenziell alltagstauglicher. Mittlerweile gibt es kaum eine medizinische Fachzeitschrift, die nicht schon Artikel zum Thema Maschinenlernen veröffentlicht hat, und es gibt kaum einen medizinischen Kongress, der dazu nicht Vorträge oder zumindest Posterbeiträge in petto hat.

 

 

Die Radiologie ist das Fach, das diese Entwicklung derzeit am stärksten zu spüren bekommt, aber auch Pathologen, Augenärzte, endoskopisch tätige Ärzte aller Fachrichtung und Kardiologen sind nah dran – alles Disziplinen, die mit Bildern arbeiten, die interpretiert werden wollen, seien es Fotos, Röntgenbilder, mikroskopische Schnittbilder, Videosequenzen oder EKG-Streifen. Dass sich die Radiologie im Fokus der KI-Welle in der Medizin befindet, liegt zum einen daran, dass bildgebende Diagnostik mit Mustererkennung zu tun hat. Es liegt aber auch daran, dass jene technischen Gerätschaften, die genutzt werden, um die Bilder zu erzeugen, ziemlich unkompliziert um Software-Lösungen erweitert werden können, die gleich eine Interpretation mit ausspucken. Die üblichen Schnittstellenprobleme, die die Einführung von theoretisch denkbaren IT-Innovationen in anderen Bereichen der Medizin teilweise um Jahre verzögern können, gibt es hier kaum.


Bei klaren Fragestellungen sind Algorithmen oft besser als Radiologen

Wie Maschinenlernalgorithmen die Radiologie aufmischen können, erläuterte kürzlich Professor Michael Forsting vom Universitätsklinikum Essen anlässlich des von ihm mit organisierten Kongresses ETIM 2017 – Artificial Intelligence and Bioprinting: „Es gibt beispielsweise ein Programm, das automatisch die Schwere eines Schlaganfalls auf Basis früher CT-Aufnahmen mit einem etablierten Score bestimmt. Selbst sehr gute Neuroradiologen schaffen das nicht mit dieser Genauigkeit.“ In der eigenen Abteilung haben Forsting und seine Kollegen einen Deep-Learning-Algorithmus auf die Erkennung von Lungenfibrosen trainiert. Auch hier mit Erfolg: „Wir haben schon mit wenigen Lernzyklen erreicht, dass ein Computer die Diagnose besser stellen kann als ein Arzt.“

 

 

Diese Erfahrung machen auch andere: Eine KI-Arbeitsgruppe der Universität Stanford hat innerhalb von nur einer Woche einen bereits existierenden Algorithmus für die Interpretation von Thorax-Übersichtsaufnahmen namens CheXNet mit Hilfe eines qualitätsgesicherten Datensatzes der NIH, der über 100.000 annotierte Röntgen-Thorax-Aufnahmen umfasste, so weiterentwickelt und trainiert, dass die Treffsicherheit bei 10 von 14 vorher definierten Erkrankungen höher war als bei allen bisherigen Algorithmen. Innerhalb von 4 Wochen war das bei allen 14 Erkrankungen der Fall. Und speziell bei der Lungenentzündung schlug der Algorithmus gleich vier gestandene Radiologen der Universität. Es dauerte insgesamt keine sechs Wochen, bis die erste Version einer wissenschaftlichen Publikation über diese Arbeit auf dem Preprint-Server arXiv zu lesen war.


Mehr als einfach nur CAD 2.0

Jenseits der Radiologie hatte dieselbe Arbeitsgruppe zuvor einen neuen Algorithmus zur Auswertung von 12-Kanal-EKGs vorgestellt, der nicht nur Herzfrequenz, Vorhofflimmern und ST-Streckenanalysen beherrscht, sondern auch die sehr viel schwieriger zu automatisierende Detailauswertung von Herzrhythmusstörungen. Der Algorithmus war dabei in einer klinischen Vergleichsstudie durchweg besser als Kardiologen in Ausbildung und mindestens genauso gut wie erfahrene Kardiologen.

 

 

Nach Japan: Gastroenterologen der Showa Universität in Yokohama haben Maschinenlernen auf endoskopische Videosequenzen der Darmspiegelung angewandt. Ergebnis: Gemessen am Goldstandard Pathologie konnten bösartige Polypen anhand von rund 300 Einzelparametern mit einer Sensitivität von 94% erkannt werden – in Echtzeit wohlgemerkt. Und nochmal nach Deutschland: Forscher der Universität Regensburg haben kürzlich ein neuronales Netzwerk dahingehend trainiert, dass es OCT-Scans der Netzhaut auswertet, und zwar im Hinblick auf die Frage, ob eine Behandlung mit einem Anti-VEGF-Präparat erfolgen sollte oder nicht. Das System wurde mit über 150.000 von Ophthalmologen annotierten OCT-Scans gefüttert und danach auf 17.000 unbekannte Scans losgelassen. Die Empfehlung bezüglich der Anti-VEGF-Therapie deckte sich zu 96% mit der der Ophthalmologen.

 

 

Zu den Stärken all dieser Algorithmen gehört, dass sie zu einem gewissen Grad selbstoptimierend sind: Darin gehen Systeme, die mit künstlicher Intelligenz arbeiten, Forsting zufolge auch über jene CAD-Systeme hinaus, die in der Radiologie schon lange existieren und dort bisher nur ein Nischendasein führten: „Die Systeme lernen selbst, und sie vergessen auch seltene Erkrankungen nicht“, so Forsting.

 

 

Zukunftsszenario I: Die KI als Rad-Helper

Hier wird es interessant, sowohl technisch als auch im Hinblick auf die diagnostische Radiologie als medizinische Disziplin. Denn natürlich sind Musterkennung und echte Intelligenz nicht das gleiche. Zumindest bis auf weiteres sind Maschinenlernalgorithmen – Stichwort „garbage-in-garbage-out“ – nur so gut, wie das Material, anhand dessen sie trainiert werden. Und mehr noch: Auch bei gutem Ausgangsmaterial beherrschen sie nur jene Fragestellungen, für die sie entwickelt wurden. Ein Algorithmus für die Röntgen-Thorax-Bilder etwa mag fast jede Pneumonie als solche erkennen. Aber wenn er mit einer Erkrankung konfrontiert ist, die nicht zu den 14 trainierten Erkrankungen gehört, dann wird ihm das nicht auffallen. Er wird vielmehr versuchen, das Bild mit aller Gewalt in eine der ihm bekannten Schubladen einzuordnen.

 

 

Was heißt das nun für die Zukunft der Radiologie? Das naheliegende Szenario ist gleichzeitig ein vergleichsweise unattraktives: KI-Tools könnten in allen möglichen diagnostischen Situationen als Hilfsmittel eingesetzt werden, um die radiologische Diagnose zu ergänzen. Die US-Ärzte Eric Topol vom Scripps Translational Science Institute und Saurabh Jha von der Perelman School of Medicine haben dafür kürzlich in einem Artikel im Journal of the American College of Radiology den Begriff des „Rad-Helper“ geprägt. Der Begriff klingt erst einmal vielversprechend: Kleine grüne Software-Männchen unterstützen den Radiologen bei seiner diagnostischen Tätigkeit im dunklen Kämmerchen und führen dazu, dass er mehr Zeit hat, an Tumorkonferenzen teilzunehmen und mit Patienten in direkten Kontakt zu treten. Die Rückkehr der Empathie, sozusagen.

 

 

„Rad-Helper“ können aber auch andere Konsequenzen haben. Eine Armada von KI-Tools könnte auch dazu führen, dass sich die radiologische Tätigkeit noch stärker verdichtet. Unterstützt von seinen „Rad-Helpers“ kann der Radiologe nicht mehr nur hunderte, sondern tausende Bilder pro Tag befunden. Die künstliche Intelligenz könnte zu einer reinen Produktivitäts-Maschinerie verkommen, die ähnlich wie in der Labormedizin mit Zentralisierung und Ökonomisierung einher geht und bei der es sehr fraglich wäre, ob sie den Radiologenberuf wirklich attraktiver macht.

 

 

Zukunftsszenario II: Der Radiologe als Information Manager

Muss das so kommen? Topol und Jha sind da ein bisschen optimistischer. Sie glauben schon daran, dass das „Rad-Helper“-Szenario im Grundsatz plausibel ist, denken aber, dass es nur ein Teil der Wahrheit über die Zukunft der diagnostischen Radiologie sein könnte. Sie sehen den Radiologen der Zukunft nicht als tief in künstlich intelligente Software-Infrastrukturen eingebettete Produktivitätsmaschine für eine optimierte Auswertung von Bilddaten, sondern viel mehr als einen deutlich breiter als heute aufgestellten „Information Manager“, dem in einer mit immer mehr Daten aus unterschiedlichsten Quellen und immer stärker präventiv, prädiktiv und  präemptiv arbeitenden Medizin eine Schlüsselposition bei der Interpretation der individuellen Situation und damit bei der Planung der erforderlichen oder nicht erforderlichen therapeutischen Maßnahmen zukommt.

 

 

Die beiden Amerikaner denken dabei unter anderem an die Bewertung radiologischer oder auch biochemischer Biomarker im individuellen Kontext, der durch genetische, metabolomische, mikrobielle und anderweitige Faktoren aufgespannt wird. In einem solchen Szenario würden Maschinenlernalgorithmen anhand regelmäßig durchgeführter Ganzkörper-MRT-Untersuchungen, ergänzt um Liquid Biopsies, Stuhlproben oder andere Datenquellen, nach Auffälligkeiten fahnden und Alarm schlagen, wenn es etwas Ungewöhnliches sichtbar wird, eine klitzekleine Veränderung in einem Gewebe etwa, die ein Tumor sein könnte. Aufgabe des „Information Manager“ wäre es dann, diesen Alarm der künstlichen Intelligenz im Kontext aller verfügbaren Informationen individuell zu bewerten, um, wie Topol and Jha es ausdrücken, „den schmalen Grat zwischen Überdiagnostik und Frühdiagnostik“ optimal zu bewältigen.

 

 

Der „Information Manager“ wird in diesem Zukunftsszenario mit anderen Worten zum wahren medizinischen Generalisten. Er wird zu jener Instanz, die die urmedizinische Kompetenz des diagnostischen Einordnens und therapeutischen Steuerns unter Beachtung des individuellen Patientenwohls verkörpert, quasi die Personifizierung der ersten beiden Eckpfeiler des bald 2000 Jahre alten Grundsatzes „primum non nocere, secundum cavere, tertium sanare“ von Scribonius Largus – erstens nicht schaden, zweitens vorsichtig sein. Erst das drittens, das Heilen, wäre nicht mehr die Aufgabe des „Information Managers“.

 

 

Gesucht: Visionäre für eine Renaissance der Radiologie

Woran Topol und Jha keinerlei Zweifel lassen ist, dass diese Zukunft, wenn sie denn kommen soll, den Radiologen einiges an Veränderungen abverlangt. Denn prinzipiell gibt es natürlich keinen Grund, warum sich nicht Angehörige anderer Disziplinen an jener Schnittstelle positionieren sollten, die der von künstlicher Intelligenz auf breiter Front unterstützte „Information Manager“ besetzt. Tatsächlich glauben Topol und einige andere, dass die Berufe des Radiologen und des Pathologen auf Dauer dank Maschinelernen zusammenwachsen könnten. Dadurch würde eine relativ kraftvolle, weil tief in der Diagnostik verankerte, neue Profession entstehen, eine Art Pathoradiologe, der zumindest einen sehr plausiblen Anspruch auf den Posten des „Information Manager“ erheben könnte.

 

 

Wenn das so käme, dann müsste sich auch die Ausbildung in der Radiologie radikal ändern, so Topol und Jha: „Es braucht ein paar Renaissance-Radiologen, um das neue Paradigma der Radiologie zu definieren.“ Innerhalb dieses Paradigmas wird in einem langjährigen Prozess künstliche Intelligenz aufgebaut, um Expertise anzuhäufen und – zunehmend – diagnostische Verantwortung zu übernehmen, in klar definierten Szenarien, die dann aus dem Verantwortungsbereich des menschlichen Radiologen herausfallen. Neuroradiologische, thoraxradiologische oder kardiovaskulär-radiologische Detailkenntnisse würden zunehmend überflüssig: „Assistenten müssten nicht mehr jede Blutung finden können, jeden falsch platzierten Endotrachealtubus erkennen und jede Lungenembolie identifizieren.“ Diese Aufgaben würden – zunehmend – Algorithmen übernehmen, was in der radiologischen Ausbildung Zeit schaffen würde für den Erwerb jener integrativen, fächerübergreifenden Fähigkeiten, die ein „Information Manager“ benötigt. Naiv? Vielleicht. Aber zumindest eine attraktive Vision für ein Fach, das so oder so im Wandel ist.

 

 

Philipp Grätzel 


Die etwas andere Befragung: Wie ist Ihr Gemütszustand, nachdem Sie diesen Beitrag gelesen haben?
Übermittlung Ihrer Stimme...