Größe, Art und Volumen von Tumoren genaustens zu kennen, ist wichtig, um Krebspatientinnen und -patienten die richtige Therapie zu empfehlen. Grundlage hierfür sind Aufnahmen, die in der Positronen-Emissions-Tomographie (PET) und in der Computertomographie (CT) gemacht werden. Das CT macht die Anatomie des Körpers sichtbar, während das PET die Stoffwechselaktivität von Gewebe misst. Radiologen und Nuklearmedizinerinnen markieren bisher in 2D-Schichtbildern manuell die Konturen von einzelnen Tumoren, um deren Volumen zu erfassen. Teilweise haben Krebspatientinnen und -patienten mehrere Hundert Läsionen – also pathologische Veränderungen, die durch das Wachstum eines Tumors verursacht werden. Um ein einheitliches Bild zu erhalten, müssten alle Läsionen erfasst werden.
„Medizinerinnen und Mediziner würden dann mehrere Stunden benötigen, um die Läsionen einzuzeichnen. Bei vielen Tausenden Krebspatientinnen und Krebspatienten pro Jahr am Uniklinikum Tübingen ist das eine sehr zeitintensive Arbeit“, erklärt Prof. Dr. Thomas Küstner, Forschungsgruppenleiter Medical Image and Data Analysis Lab in der Abteilung für diagnostische und interventionelle Radiologie des Universitätsklinikums Tübingen. „Besser wäre es, wenn ein Algorithmus automatisiert die Auswertung übernehmen würde.“
Im Jahr 2021 gingen Küstner und sein Kollege Prof. Dr. Sergios Gatidis auf Prof. Dr. Clemens Cyran und Prof. Dr. Michael Ingrisch vom LMU Klinikum München zu. Die Idee: eine Challenge entwickeln, die die Bildgebung mit dem maschinellen Lernen verbindet. 2022 wurde die erste autoPET-Challenge organisiert, die von April bis September 2022 lief. Forschende aus der ganzen Welt waren eingeladen, Algorithmen für die Auswertung von Tumorläsionen zu entwickeln. 359 Teilnehmende in 27 Teams haben ihre Lösungen eingereicht. Die Ergebnisse wurden auf der International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI) im September 2022 präsentiert.
„Wir konnten Hunderte Wissenschaftlerinnen und Wissenschaftler weltweit erreichen und dazu motivieren, an dieser wichtigen Fragestellung zu arbeiten. Das war nur im Rahmen einer Challenge möglich", erklärt Gatidis. Alle eingereichten Algorithmen nutzen Deep Learning, eine Form der künstlichen Intelligenz, um die Konturen der Läsionen zu identifizieren. Hierbei werden mithilfe von neuronalen Netzen komplexe Muster und Zusammenhänge in großen Datenmengen erkannt. Die vielversprechendsten Algorithmen haben Küstner und sein Team im Nachgang identifiziert.
Vollständige Automatisierung als Ziel
Die Auswertung der Algorithmen zeigt, dass die Algorithmen die Tumorläsionen präzise und effizient erkennen können. „Die Challenge war ein wichtiger erster Schritt, um vielversprechende Algorithmen in diesem Gebiet zu identifizieren“, betont Ingrisch. Die Leistung der Algorithmen hängt allerdings stark von der Qualität der Bilder der PET und des CTs ab. Je besser die Algorithmen mit verschiedenen Datensätzen umgehen können, desto robuster sind die Algorithmen gegenüber äußeren Einflussfaktoren wie Variationen in den Bildaufnahmen, der Bildgebungsscanner oder der radioaktiven Marker. „Unser Ziel ist es, in den nächsten Jahren die Analyse der Bildgebung im CT und PET vollständig zu automatisieren“, erklärt Cyran. Weitere Arbeiten sind deshalb notwendig, um die Algorithmen zu verbessern und robuster zu machen. 2023 und 2024 fanden bereits weitere autoPET-Challenges statt. Das Team aus Tübingen und München wird die Ergebnisse erneut auswerten und weitere Schritte einleiten, um die Algorithmen in naher Zukunft im klinischen Alltag einsetzen zu können.
Originalpublikation
Autoren: Sergios Gatidis, Marcel Früh, Matthias P. Fabritius, Sijing Gu, Konstantin Nikolaou, Christian la Fougère, Jin Ye, Junjun He, Yige Peng, Lei Bi, Jun Ma, Bo Wang, Jia Zhang, Yukun Huang, Lars Heiliger, Zdravko Marinov, Rainer Stiefelhagen, Jan Egger, Jens Kleesiek, Ludovic Sibille, Lei Xiang, Simone Bendazzoli, Mehdi Astaraki, Michael Ingrisch, Clemens C. Cyran, Thomas Küstner
Titel: Results from the autoPET challenge on fully automated lesion segmentation in oncologic PET/CT imaging
Link: https://www.nature.com/articles/s42256-024-00912-9
DOI: 10.1038/s42256-024-00912-9
Quelle: Universitätsklinikum Tübingen