An Versuchen, virtuelle oder augmentierte Realitäten in der medizinischen Versorgung und insbesondere im OP-Saal zu nutzen, mangelt es nicht. Häufig sind die entsprechenden Anwendungen umständlich zu bedienen, erfordern 3D-Brillen, die nicht jedermanns Sache sind und/oder kosten enorm viel Geld. Das Heidelberger Unternehmen Ameria will jetzt mit einer neuen KI-Plattform punkten, die sich Maverick AI nennt – und für die sich nicht zuletzt im Gesundheitswesen attraktive Anwendungsszenarien andeuten. Es geht um die dreidimensionale Darstellung von Bilddaten, um eine Gestensteuerung, die auch unter sterilen OP-Bedingungen funktioniert, um moderne Patientenaufklärung und um eine komfortable und zielführende Interaktion von Mensch und künstlicher Intelligenz.
Gestensteuerung, 3D-Darstellung und Spracheingabe
Das Unternehmen Ameria, das die Maverick AI Plattform mit samt ihren geplanten medizinischen Anwendungen am 21. Januar in Heidelberg der Öffentlichkeit vorstellte, kommt ursprünglich aus dem Marketing: Es hat interaktive digitale Anwendungen für die Darstellung von Produkten auf Messen oder anderen Events entwickelt. Daraus wurde die Plattform Maverick AI. „Das erste echte AI-Device, das die Interaktion mit künstlicher Intelligenz wirklich einfach macht“, nennt es Dr. Johannes Tröger, Senior Vice President Strategy und Business Development bei Ameria. „Es ist ein Device, von dem man eigentlich erwarten würde, dass es in den USA entwickelt wird.“
Auf den ersten Blick handelt es sich bei Maverick AI um einen Laptop, der allerdings über vier Interaktionselemente verfügt, die normale Laptops so nicht aufweisen können:
- - ein über integrierte, eigens entwickelte Kameras aufgespannter, virtueller Raum vor dem Bildschirm für die Gestensteuerung,
- ein mit stereoskopischer Hardware und Software hinterlegter Bildschirm, der eine 3D-Darstellung von zum Beispiel medizinischen Bilddaten ermöglicht, ohne dass eine 3D-Brille erforderlich wäre,
- ein Touchscreen an der Stelle, wo bei einem normalen Laptop die Tastatur ist und der neben einer normalen Tastatur je nach Anwendung auch ganz andere taktile Interaktionsmodi erlaubt, und schließlich
- eine Spracheingabe, die nach Art eines Sprachmodells eine Interaktion mit KI-Anwendungen aller Art in natürlicher Sprache gestattet.
Medizinisch zur Anwendung an Patient:innen gebracht werden soll dieser interaktive Tausendsassa in den nächsten anderthalb Jahren am Krankenhaus Salem in Heidelberg. Dort gibt es unter anderem eine Urologie, die mit einem Da Vinci-Roboter operiert und offen ist für weitere innovative Gerätschaften.
Ziel: Eine Art iPhone für den Klinikbetrieb
Wie ein medizinischer Einsatz von Maverick AI konkret aussehen könnte, skizzierten Dr. Martin Koser, Leitender Oberarzt der Urologie am Krankenhaus Salem und Leiter der dortigen Robotischen Abteilung sowie Dr. Mladen Stankovic, ebenfalls urologischer Oberarzt am selben Haus. Prinzipiell wünschen, so Koser, würde er sich als Urologe ein Gerät, das er immer dabei hat und das in den unterschiedlichen Situationen hilfreich ist, vom Patientengespräch über die OP-Planung bis hin zur Navigation während des Eingriff und zur Befunderstellung im Anschluss daran.
So ein vielseitig einsetzbares Tool will Maverick ein einmal sein, quasi eine Art iPhone für den Krankenhausalltag. Während der robotischen OP stellt sich Koser einen zusätzlichen Bildschirm vor, der im OP-Saal aufgestellt wird, die CT-/MRT-Datensätze dreidimensional darstellt und mit dem dank Gestensteuerung steril im Rahmen der OP-Vorbereitung interagiert werden kann – inklusive Schnitte setzen und Entfernungen ausmessen. Später, wenn der Operateur dann nicht mehr steril am Da Vinci Roboter sitzt, könnte das Gerät zur 3D-Rekonstruktion des OP-Felds dienen: „Das würde uns helfen, während des Eingriffs die Orientierung zu verbessern und die Eingriffszeit zu verkürzen“, so Koser. Im Vorfeld der OP könnte Maverick AI wiederum zur Patientenaufklärung genutzt werden – was zum einen den Charme der 3D-Darstellung hätte, zum anderen deswegen attraktiv wäre, weil die OP anhand der patienteneigenen Bilder erklärt werden könnte. Und im Nachgang könnte per Spracheingabe und Datenübernahme aus den relevanten Informationssystemen dann auch gleich noch der OP-Bericht generiert werden – alles ohne ständig den Arbeitsplatz zu wechseln.
Noch in diesem Jahr erste Praxistests
Wie nah ist das Ganze jetzt schon an der Patientenversorgung? Technisch sei das Gerät im Prinzip sofort einsetzbar, so Koser. Aktuell steht unter anderem noch die Anbindung an die klinischen Informationssysteme auf dem Programm. Eine Zustimmung der zuständigen Ethikkommission in Baden-Württemberg liegt bereits vor. „Wir gehen davon aus, dass wir erste Praxistests im Krankenhaus Salem noch 2025 durchführen können“, betonte Tröger. Läuft alles gut, könnte es 2026 in Richtung Medizinproduktezertifizierung gehen. Dafür wird zunächst einmal möglicherweise Klasse IIa reichen, da es sich nicht um einen diagnostischen Monitor handelt. Das, so Stankovic, sei aber noch nicht abschließend geklärt.
Jenseits der Urologie sind die interventionelle Radiologie und generell die Steuerung unterschiedlichster Medizingeräte weitere Einsatzszenarien im medizinischen Umfeld, die die Heidelberger evaluieren wollen. All diese Anwendungen werden nicht im Alleingang umgesetzt, sondern mit Partnerunternehmen, die Maverick AI über eine API an- und einbinden können. Was es auch schon gibt, ist eine ungefähre Preisvorstellung für den Launch. Sie liegt in der Größenordnung von 8000 Euro für das Gerät. „Mit steigenden Stückzahlen kann das dann aber auch schnell weniger werden“, so Tröger.