Durch die Einführung minimalinvasiver Techniken sind die Komplikationsraten in der Chirurgie vielerorts gesunken, aber zuverlässig komplikationsfrei sind chirurgische Eingriffe per Definition nicht. Vor allem lässt sich nicht immer sicher vorhersehen, welche Patienten Komplikationen entwickeln und welche nicht. Das wäre aber hilfreich, um präventiv handeln oder zumindest früh reagieren zu können.
In dem vom Bundesministerium für Gesundheit geförderten SurgOmics Projekt des Nationalen Centrums für Tumorerkrankungen Dresden und dem Universitätsklinikum Heidelberg in Kooperation mit der Karl Storz SE soll jetzt eine App entwickelt werden, die Methoden der künstlichen Intelligenz nutzt, um vorab zu signalisieren, welche Patienten zu unterschiedlichen Zeitpunkten des präoperativen, operativen und postoperativen Verlaufs möglicherweise Komplikationen entwickeln. „Der Fokus liegt zunächst auf minimalinvasiven Tumoroperationen im Bauchraum“, sagte Prof. Dr. Stefanie Speidel, Leiterin der Abteilung „Translationale Chirurgische Onkologie“ am NCC in Dresden.
Kandidateneingriffe sind dabei weniger die simple laparoskopische Gallenentfernung. Entwickelt werde das Tool vielmehr für komplexe laparoskopische Eingriffe, etwa Operationen am Ösophagus, am Pankreas oder kolorektal, so Speidel zu E-HEALTH-COM. Gefüttert werden soll das System zu Trainingszwecken mit klinischen Daten, außerdem mit CT-Datensätzen und mit intraoperativen Videoaufnahmen des Laparoskops. Auch Gerätedaten, die die Instrumente auf Basis anderer Sensorik liefern, fließen in den Datensatz mit ein. „Endpunkte“ sind je nach Szenario unterschiedliche Arten von Komplikationen, darunter postoperative Blutungen oder die 30-Tage-Sterblichkeit, aber auch intra- oder perioperative Komplikationen wie eine Anastomosen-Insuffizienz.
Was genau der Algorithmus an prognostischen Faktoren identifiziert, sei eine der spannenden Fragen des Projekts, so Speidel. Denkbar sei beispielsweise, dass nicht optimal ausgeführte Nähte oder schlecht perfundierte Gewebeareale erkannt würden. Angezeigt werde sollen die Warnungen vor Komplikationen im jeweiligen Behandlungskontext, also eingeblendet in den OP-Bildschirm oder auf einer App des nachbehandelnden Arztes auf der Intensivstation.
Wie viele Datensätze benötigt werden, damit der Algorithmus zuverlässig genug wird, um nützlich zu sein, ist unklar. Zunächst würden etwa 200 Patienten angestrebt, so Speidel. „Ein wichtiger Flaschenhals seien die Annotierungen der CT- und Videodaten, die durch Spezialisten vorgenommen werden müssen und auf deren Basis das Algorithmen-Training erfolgen wird. Ohne wird es nicht gehen: Für ein nicht überwachtes Deep Learning sind die Fragstellungen zu komplex und die Patientendatensätze zu rar.