E-HEALTH-COM ist das unabhängige Fachmagazin für Gesundheitstelematik, vernetzte Medizintechnik , Telemedizin und Health-IT für Deutschland, Österreich und die Schweiz.
Mehr

Für das ePaper anmelden

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden

Anmelden

Passwort vergessen?

Health-IT |

ChatGPT-Abo und fertig ist die Laube?

Geht es nach so manchem Cheerleader der Large Language Models (LLMs), bleibt in der medizinischen IT kein Stein auf dem anderen: Wer braucht schon Standards und strukturierte Daten, wenn er ChatGPT, Hippo AI, Bard und Co nutzen kann? Interoperabilitätsprofis wissen, dass die Sache nicht so einfach ist. Dennoch: Gerade, weil die LLMs kein reines Technikthema sind, könnten sie vielen Anwendungen, die bisher mit angezogener Handbremse fuhren, neuen Schub verleihen.

Bild: © Antony Weerut – stock.adobe.com, 839474830, Stand.-Liz.

Wer die Vision hört, dem leuchtet sie unmittelbar ein: Eine Ärztin führt ein Aufnahmegespräch mit einem Patienten. Eine Künstliche Intelligenz, spezifischer ein großes Sprachmodell (LLM), hört mit und fertigt von dem Gespräch nicht nur ein wörtliches Transkript an, sondern erstellt aus dem Gespräch auch gleich eine strukturierte Dokumentation. Codierungsfachkräfte und codierende Ärzt:innen werden überflüssig, weil relevante Codes von SNOMED CT über OPS bis ICD-10 automatisch generiert werden. Selbstverständlich werden Datensätze, die übertragen werden sollen, auch gleich in ein zeitgemäßes Format wie HL7 FHIR überführt.


Im Krankenhaus oder auch ambulant werden Wissenschaftler:innen, die eine klinische Studie durchführen wollen, umfassend von Künstlicher Intelligenz (KI) unterstützt: Sie identifizieren potenzielle Patient:innen nicht mehr nur anhand existierender strukturierter Register, sondern lassen LLMs zusätzlich Freitexte durchforsten. Arztbriefe und Pflegeüberleitungsbögen entstehen wie von selbst und bedürfen allenfalls minimaler Korrekturen. Laienverständliches Informationsmaterial ist selbstverständlich. Und auf jeder Station gibt es Tools, die für eine klinische Entscheidungsunterstützung die Patientendokumentation in ihrer Gesamtheit und auch die klinischen Verläufe anderer Patient:innen berücksichtigen – statt einfach nur stumpf zu bestimmten Zeitpunkten halbwegs passende Leitlinienempfehlungen einzublenden.


Ärztinnen und Ärzte kriegen feuchte Augen

In ihrer Gesamtheit ist diese Vision Zukunftsmusik. Einzelne Komponenten davon existieren jedoch bereits, manche als Prototypen, andere sogar in der Routine. Teilweise werden bei diesen bereits existierenden Anwendungen LLMs genutzt. Oft kommen aber auch (noch?) spezifische KI-Modelle zum Einsatz, zum Beispiel solche, die mit Entscheidungsbäumen arbeiten. Die sind für manche Fragestellungen besser geeignet als LLMs. Auch lösen LLMs längst nicht in jedem der geschilderten Anwendungsfälle Interoperabilitätsprobleme im engeren Sinne.


Zeit, in das ganze Thema ein bisschen Ordnung hineinzubringen. Bei einem Workshop der gematik in Berlin wurde das im September versucht. Eine Kernthese, die dabei herausgemeißelt wurde und die auch viel Zustimmung erhielt, lautete: LLMs können in der Medizin eine Art universelle Übersetzungsfunktion übernehmen und auf diese Weise sozusagen indirekt zu mehr Interoperabilität beitragen. „Übersetzung“ bedeutet dabei zum einen die Strukturierung von Freitext – sei es schriftlicher Freitext oder Sprache – und dessen Ablage in strukturierten Dokumenten mit oder ohne Codierung. „Übersetzung“ geht aber auch in die umgekehrte Richtung: Aus einer medizinischen Dokumentation können LLMs prozessangepasste Informationen zu Freitextdokumenten zusammenstellen, seien es Epikrisen im Rahmen eines zusätzlich strukturierte Daten enthaltenden E-Arztbrief-Dokuments, seien es Pflegeüberleitungsbögen, seien es laienverständliche Entlassbriefe. 


Es sind solche versorgungsnahen Anwendungen, die mit Zusammenfassen, Befunderstellen, Codierung und dem Abfragen von Daten aus einer existierenden Dokumentation zu tun haben, die dazu führen, dass insbesondere Ärztinnen und Ärzte beim Thema LLMs feuchte Augen kriegen. Der Arzt und KI-Wissenschaftler Prof. Dr. Jakob Nikolas Kather vom Else Kröner Fresenius Center an der TU Dresden hat kürzlich in einem Artikel in der medizinischen Fachzeitschrift Nature Medicine auf den Punkt gebracht, was Kliniker:innen an den LLMs fasziniert: Für die klinische Medizin könnten LLMs in gewisser Weise eine Rückkehr zu in kommunikativer Hinsicht als besser empfundenen, vordigitalen Zeiten sein (Kather JN et al. Nature Medicine 2024; 23.8.2024; doi: 10.1038/s41591-024-03199-w).

 

Große Sprachmodelle könnten die natürliche Sprache gewissermaßen wieder zum universellen Interface der Medizin machen – so wie es früher schon einmal war. Eine mehr oder weniger strukturierte Dokumentation und eine daraus abgeleitete Codierung mögen auch künftig nötig bleiben, aber sie finden nicht mehr an irgendwelchen Bildschirmen unter Nutzung irgendwelcher nervtötender Formulare statt, sondern automatisiert in digitalen Hinterzimmern.


Strukturierung vielversprechend, Codierung schwierig?
Wie immer bei Visionen braucht es einen Realitäts-Check, und der fällt vielschichtig aus. Wer bei der DMEA 2024 den Stand von Oracle besuchte, konnte dort, auf Englisch, ein Arzt-Patienten-Gespräch führen. Eine dazu passende strukturierte Dokumentation baute sich nebenher mehr oder weniger in Echtzeit von selbst auf. Das war, bei aller Begrenztheit des An­wendungsfalls, schon eindrucksvoll. Micro­soft hat ebenfalls in dieser Richtung gearbeitet und GPT-4 von Open­AI bereits kurz nachdem es verfügbar war in seine medizinische Spracherkennung Nuance Dragon integriert – im Sinne einer Sprache-zu-SNOMED-CT-Übersetzungshilfe.


Tatsächlich sind „Strukturierung“ und „Codierung“ unterschiedliche Anwendungsfälle. Erste publizierte Erfahrungen mit einer FHIR-Strukturierung von gesprochenem oder geschriebenem Freitext sind vielversprechend. Das betrifft die Strukturierung von Radiologiebefunden, aber auch, in ­einer aktuellen Publikation, die Übersetzung von Freitext in FHIR-Medikationsressourcen (Li Y et al. NEJM AI 2024; 1(8); doi 10.1056/ALcs2300301). Günstig bei der LLM-basierten Überführung von Text in FHIR-Formate ist unter anderem, dass mit der FHIR-Validierung ein gut etabliertes Verfahren existiert, mit dem strukturelle Fehler des LLMs nachvollzogen und korrigiert werden können. 


Bei der Codierung wiederum sind die bisher publizierten Ergebnisse eher enttäuschend gewesen. So zeigte eine kürzlich publizierte Arbeit, dass Sprachmodelle wie GPT-4 Codes oft einfach erfinden, mit Trefferquoten von teilweise unter 50 Prozent für zum Beispiel die ICD-Codierung (Soroush A et al. NEJM AI 2024; doi: 10.1056/Aldbp2300040). Allerdings wurde in der Soroush-Arbeit mit einer sehr simplen Zero-Shot-Herangehensweise gearbeitet, bei der einfach angenommen wurde, dass GPT-4 Codierung schon können werde. Technologien wie In-Context-Learning (ICL) oder Retrieval-Augmented Generation (RAG) sind Ansätze, bei den LLMs gewissermaßen für eine gewisse Vorbildung zu sorgen. Ob das reicht, ist eine offene Frage. Ob LLMs für eine Codierung überhaupt nötig oder sinnvoll sind, auch. Denn eine Codierung aus Text gelingt auch mit anderen KI-Ansätzen, und dann oft besser. Bei der Strukturierung aus Text scheinen LLMs dagegen besser abzuschneiden und vor allem unaufwendiger zu sein als beispielsweise die trainingsaufwendige Strukturierung durch Natural Language Processing.


LLMs als Datenzugangshilfe für die Forschung
Neben der klinisch tätigen blickt auch die klinisch forschende Zunft mit Spannung auf LLMs. Fehlende Interoperabilität im Sinne von fehlenden strukturierten Daten ist ein Haupthindernis für eine effiziente klinische Forschung – sowohl im Bereich klinischer Studien als auch im Bereich Versorgungsforschung. Entsprechend positiv sehen nicht zuletzt Vertreter:innen der forschenden Pharmaindustrie die Möglichkeiten von LLMs in diesem Kontext. Einer von mehreren Anwendungsfällen ist dabei die Identifizierung von Patient:innen, die für klinische Studien infrage kommen. Bei strukturierten klinischen Registern ist das schon heute automatisierbar möglich. Mit LLM-basierten Suchen könnten sich künftig aber auch jene nicht wenigen Patient:innen identifizieren lassen, die in Registern nicht zu finden sind, entweder weil sie nicht daran teilnehmen oder weil es für die inte­ressierende Erkrankung gar kein Register gibt (den Hamer DM et al. arXiv 14.4.2023; doi: 10.48550/arXiv.2304.07396).


Prinzipiell gibt es hier zwei unterschiedliche Ansätze: LLMs könnten „direkt“ genutzt werden, um Patient:innen anhand von Ein- und Ausschlusskriterien in unstrukturierten Daten zu identifizieren. Die Alternative wäre, die unstrukturierten Daten zunächst zu strukturieren und dann in den strukturierten Daten anhand spezieller Kriterien gezielt zu suchen. Bevor sie auf die Patient:innen „losgelassen“ werden können, müssen entsprechende Ansätze evaluiert und später dann auch qualitätsgesichert werden. 


Konkurrenz oder Ergänzung, das ist hier die Frage

Bei aller Diskussion über LLMs im Zusammenhang mit Interoperabilität und Standardisierung stellt sich die Frage, ob LLMs in erster Linie unterstützend wirken oder ob sie nicht, gewollt oder ungewollt, dazu führen, dass Strukturierung und Standardisierung herunterpriorisiert werden, weil die Nutzung von Freitext dank LLMs sehr viel einfacher wird. Unter Expert:innen in Sachen Standards und Interoperabilität herrscht weitgehend Konsens, dass eine solche Herunterpriorisierung definitiv nicht passieren sollte. 


Bei anderen Teilnehmer:innen des breiten öffentlichen medizinischen Digitalisierungsdiskurses, bis hinauf in die Leitungsebenen von Ministerien und Behörden, hört es sich dagegen mitunter schon so an, als seien alle Interoperabilitätsprobleme jetzt gelöst, und es wird teilweise nicht so ganz klar, wie ernst das gemeint ist. In jedem Fall dürfte es ein Trugschluss sein. Aber gleichzeitig ist es wichtig, dass sich die Standardisierungs-Community der neuen Tools annimmt, um die Arbeit damit in konstruktive Bahnen zu lenken und einen Einsatz von LLMs dort zu bahnen, wo sie echten Nutzen bringen. Das sind die Standardisierer:innen nicht zuletzt den Anwender:innen in den medizinischen Einrichtungen schuldig.

» Irgendwann fängt ein LLM an zu spinnen «

Nina Haffer forscht zu semantischer und syntaktischer Interoperabilität am Berlin Institute of Health (BIH) in der Arbeitsgruppe von Sylvia Thun. Sie ist Mitglied im Expertenkreis des Interop Councils.

 

An welchen Themen arbeiten Sie im Rahmen Ihrer Forschung?
Wir arbeiten zu semantischer und syntaktischer Interoperabilität. Im Bereich Semantik nutzen wir Terminologie-Standards wie LOINC und SNOMED CT, aber auch viele andere. Im Bereich Syntax, also Datenformate, nutzen wir HL7 FHIR. Kurz gesagt kümmere ich mich darum, dass medizinische Daten maschinenlesbar werden. Ich bin dafür da, noch unstrukturierte Daten zu strukturieren und mit Standards zu belegen.

Ist das viel Handarbeit oder schon gut automatisierbar?
Es gibt teilweise Automatisierungsmöglichkeiten, die aber noch nicht sonderlich ausgefeilt sind. Bestimmte Filterfunktionen oder die Erstellung kleinerer Value-Sets lassen sich automatisieren, aber sehr viel passiert noch manuell. Mehr Automatisierung wäre nicht nur hilfreich, das wäre ein Riesenfortschritt.

LLMs treten an, in gewissen Bereichen eine Automatisierung zu ermöglichen. Bei welchen „Interoperabilitäts-Jobs“ könnten LLMs potenziell unterstützen?

Wenn Daten bereits strukturiert eingegeben wurden und das LLM die FHIR-Spezifikation kennt, dann lassen sich bei großen Datensätzen automatische Auswertungen vornehmen. Da können dann LLMs zum Einsatz kommen. Für große Forschungsdatenbanken kann das spannend sein.

Wie sieht es „vorher“ aus, also wenn die Daten noch nicht standardisiert und strukturiert sind? Können LLMs bei der Standardisierung bzw. Strukturierung helfen?
Es gibt im syntaktischen Kontext Möglichkeiten, Freitext mit Hilfe von LLMs in das FHIR-Format zu bringen. Wenn ich zum Beispiel einen Pathologiebefund im Freitext habe und daraus eine oder mehrere FHIR-Instanzen generieren will, dann ist das mit LLMs möglich. Es gibt eine gewisse Fehlerquote, aber die wird kleiner werden.

Welche konkreten Erfahrungen haben Sie selbst schon mit LLMs gemacht?
Ich habe mich mit LLMs, konkret ChatGPT, für die Generierung von synthetischen Daten beschäftigt – und damit gute Erfahrungen gemacht. Es ist schwer, an Forschungsdaten heranzukommen. Das ist ein aufwendiges Prozedere, das auch richtig und wichtig ist, aber wenn es zum Beispiel nur darum geht, bestimmte Schnittstellen zu testen, dann ist das schon mühsam. Ich wollte bei einer Machbarkeitsanalyse eine Abkürzung nehmen. Es ging konkret darum, ob Daten innerhalb von FHIR-Ressourcen korrekt ausgetauscht werden. Ich habe ChatGPT einen Beispieldatensatz gezeigt, und ich ließ ihn dann analoge synthetische Datensätze bauen, insgesamt rund 250 Stück. Damit konnte ich dann den Datenaustausch testen.

Hat es funktioniert? Und Zeit gespart?
Absolut. Ein bisschen Zeit braucht es schon. Ich habe immer fünf Stück pro Prompt gemacht. Irgendwann fängt so ein LLM aufgrund seiner Kreativität an zu spinnen; da muss man dann neu starten. Man sollte auch ein bisschen aufpassen, was Biases angeht. Wenn das Ausgangsmaterial Verzerrungen hat, dann werden die in den generierten Daten reproduziert. Aber für Machbarkeitsanalysen ist das etwas total Tolles. Das ist wesentlich weniger aufwendig, als sich die Daten auf anderen Wegen zu beschaffen.

Wo sind die Grenzen von LLMs bei Arbeiten im Bereich Interoperabilität?
Das Schöne an der syntaktischen Arbeit ist, dass FHIR eigene Validatoren mitbringt. Ich kann damit direkt validieren, ob die Ressource korrekt ist oder nicht. Bei vielen Terminologien ist das anders, da gibt es keine externen Validatoren, die automatisch kontrollieren könnten, ob der Code so stimmt. Das Risiko, dass bei einem automatischen Mapping irgendwelche falschen Codes herausgesucht werden, ist hoch. Und solange das so ist, ist die Qualitätssicherung im Nachgang genauso aufwendig wie das manuelle Mapping, vielleicht sogar noch aufwendiger. Ich bin deswegen ein bisschen skeptisch was LLMs und Terminologiestandards angeht. Vielleicht muss es spezielle Datensätze geben, mit denen LLMs gefüttert werden, um in genau diesem Gebiet Lernfähigkeit zu erreichen. Vielleicht ist das aber auch gar nicht sinnvoll. LLMs sind linguistische Genies, die sind nicht dafür gemacht, zu codieren. Beim Codieren können wir auch ausweichen auf klassische Machine-Learning-Modelle oder auf ganz andere Formen der Künstlichen Intelligenz, die dann zuverlässigere Ergebnisse liefern.

» Mehr Daten in der Forschung berücksichtigen «

Dr. med. Frederic Kube hat in der Unfallchirurgie gearbeitet, bevor er in die pharmazeutische Industrie ging. Er ist Oncology Medical Collaborations Lead bei Pfizer in Deutschland.

 

Warum ist Interoperabilität bzw. mangelnde Interoperabilität ein Thema für ein forschendes Pharmaunternehmen?
Die Entwicklung und Evaluation innovativer Therapien für Patient:innen ist nur auf der Grundlage von medizinischen Daten möglich, die Informationen über die medizinischen Bedarfe an bestimmten Stellen in der Versorgung enthalten, beispielsweise in der ambulanten oder der klinischen Versorgung. Unabhängig davon, ob die medizinischen Daten, die naturgemäß mit den individuellen Patient:innen verbunden sind, in anonymisierter oder pseudonymisierter Form, aggregiert oder im Rahmen einer Studie erhoben werden – dies gemäß strenger Datenschutz- und Datensicherheits-Richtlinien: Sie sind stets aus dem Ort der primären Dokumentation, beispielsweise seitens der Ärztin, zu extrahieren. Je interoperabler sämtliche Systeme in der Kette der Datenverarbeitung sind, desto mehr Erkenntnisse von mehr Patienten kann man für die Therapieoptimierung verwenden – und desto weniger Patient:innen bleiben von einer individuell passenden Therapieform ausgeschlossen.

Inwieweit könnten LLMs hier helfen?
LLMs bieten grundsätzlich ein großes Potenzial für die Forschung und Entwicklung neuer Therapiemöglichkeiten – im Kontext mit der Verfügbarmachung bisher nicht verfügbarer medizinischer Daten, die beispielsweise als Freitext verfasst sind und in großer Menge nicht händisch strukturiert werden können. Beim Einsatz von KI bzw. LLMs ist stets wichtig, dass es keine Ungleichbehandlung von Patient:innen und ihren Daten gibt und dass kein Bias in der Interpretation dieser Daten hervorgerufen wird, der bestimmte Patientengruppen benachteiligen könnte. Andersherum liegt in der Möglichkeit, zukünftig Daten von mehr Patient:innen denn je in der Forschung berücksichtigen zu können, die große Chance, noch besser den Ausschluss kleinerer Patientengruppen zu vermeiden.

Welche Rahmenbedingungen müssten gegeben sein, damit Sie und die kooperierenden Studienzentren solche Tools auch wirklich einsetzen können?
Auf Grundlage eines patientenzentrierten, kontinuierlichen, cross-sektoralen Austauschs müssen neuartige Tools bzw. die Validität ihrer Ergebnisse evaluierbar und transparent nachvollziehbar sein. Außerdem müssen den Anwender:innen die Risiken und Limitationen solcher Tools vollumfänglich bekannt sein. Sämtliche Arbeitsergebnisse müssen reproduzierbar und erklärbar sein. Am wichtigsten dabei ist, dass die Autorenschaft sämtlicher Arbeitsergebnisse weiterhin bei den menschlichen Anwender:innen liegt. Sie tragen die Verantwortung, dass die ethischen, rechtlichen und regulatorischen Anforderungen beachtet werden.

» Nicht alles ist ein Nagel, nur weil wir einen Hammer haben «

Stefan Höcherl (l.) ist Leiter Strategie Standards bei der gematik und Leiter des Kompetenzzentrums für Interoperabilität im Gesundheitswesen (KIG) Dr. Samer Schaat (r.) ist IT-Architekt R&D bei der gematik.

 

Was sind aus Ihrer Sicht vielversprechende Einsatzszenarien für LLMs in der Medizin?
Stefan Höcherl:
Wir haben im Gespräch mit Expert:innen herausgearbeitet, dass es einige Einsatzszenarien gibt, in den LLMs unterstützend zum Einsatz kommen können, so wurde unter anderem benannt: standardbasierte Erstellung laienverständlicher Befunde oder Labeling Biases in Codierungen zu finden. Auch die Identifikation von Studienteilnehmenden, sowohl aus Sicht der Forschenden als auch der Patient:innen, ist spannend, außerdem die Erleichterung des Wechsels von Praxisverwaltungssystemen (PVS) durch LLM-gestützte Konvertierung von Datenstrukturen. Das ist aber nur ein Teil der möglichen Nutzungsszenarien. LLMs haben auch das Potenzial, Patient:innen stärker in die Versorgungsprozesse einzubeziehen und Ärzt:innen dabei zu unterstützen, sich ein vollständiges Bild von Patient:innen zu machen, um die bestmögliche Behandlung zu gewährleisten.

Die gematik hat im September einen ersten LLM-Workshop organisiert, um das Themenfeld zu sondieren. Was haben Sie mitgenommen?
Stefan Höcherl: Die Heterogenität der Gruppe und die daraus vertiefende Diskussion waren besonders interessant. Es wurde deutlich, dass Gesundheitsversorgung, Forschung, Industrie und Standardisierung das gleiche Ziel haben: den nutzenzentrierten Einsatz von LLMs zur Stärkung der Interoperabilität im Gesundheitswesen. Es war auch schnell klar: Es geht nicht ums Ersetzen von IOP-Standards. Vielmehr sind Standards eine Voraussetzung für die Systemintegration von LLMs ins Gesundheitswesen, und sie können die Ergebnisse und die Nachvollziehbarkeit der LLMs durch einheitlichere Datenmodelle verbessern. Umgekehrt können LLMs auch IOP-Standards stärken, indem sie Übersetzungsfunktionen zwischen, von und zu standardisierten Daten bieten, zwischen Maschinen, aber auch zwischen Mensch und Maschine, zum Beispiel um die mühsame manuelle Erfassung standardisierter Daten zu überbrücken. Besonders interessant war die Entwicklung der Use Cases, die in den verschiedenen Dimensionen der Interoperabilität eine unterschiedliche Gewichtung einnehmen und die anhand der Relevanz in der Praxis bewertet wurden. Am Ende standen elf Use Cases von der Befunderstellung bis zur Identifikation von Studienteilnehmenden. Das wollen wir jetzt vertiefen.

Ein wesentlicher Teil der bisherigen Interoperabilitätsarbeit besteht ja darin, Daten erstens zu strukturieren und zweitens das klinische Personal zu zwingen, diese Strukturen dann auch zu nutzen. Ändert sich daran etwas durch LLMs?
Samer Schaat: Interoperabilität ist kein Selbstzweck, sondern eine Notwendigkeit für eine effektive, datenbasierte Medizin. Ärztinnen und Ärzte, Pflegekräfte, Therapeut:innen und andere Gesundheitsfachkräfte sind es, die täglich mit den Herausforderungen mangelnder Interoperabilität konfrontiert sind. Sie erleben unmittelbar, wie fehlende Datenkompatibilität und -verfügbarkeit ihre Arbeit erschweren und potenziell die Patientenversorgung beeinträchtigen können. Unsere Arbeiten zur Interoperabilität zielen darauf ab, das klinische Personal im Alltag effizient zu unterstützen. Genau hier versprechen LLMs einen großen Mehrwert. Statt dem klinischen Personal abzuverlangen, direkt standardisierte Datenstrukturen bereits in der Datenerfassung zu nutzen, die möglicherweise ihre Arbeitsabläufe stören, können LLMs als flexible Vermittler fungieren. Sie können unstrukturierte oder semistrukturierte Eingaben verstehen, interpretieren und in standardisierte Formate umwandeln. Darüber hinaus können LLMs bei der Dateneingabe unterstützen, indem sie Vorschläge für strukturierte Einträge machen, Inkonsistenzen aufzeigen oder fehlende Informationen abfragen. Dies kann die Datenqualität verbessern, ohne den Arbeitsfluss des klinischen Personals zu unterbrechen. Gleichzeitig ist es von entscheidender Bedeutung zu betonen, dass der Mensch das letzte Wort hat und das Ergebnis einer LLM immer prüfen können muss.

Sehen Sie nicht die Gefahr, dass insbesondere die Strukturierung künftig vernachlässigt wird, weil „es geht ja eh alles mit Sprache und Freitext“?
Samer Schaat: Wir sehen in LLMs eine Chance für die Verbesserung der Interoperabilität im Gesundheitswesen, wenn sie gezielt und überlegt eingesetzt werden. Ohne Empfehlungen und Best Practices können LLMs ansonsten den Wildwuchs an Datenstrukturen erweitern und somit die Interoperabilität im Gesundheitswesen schwächen. Nicht jedes Problem ist ein Nagel, nur weil wir jetzt einen Hammer zur Verfügung haben. Nehmen wir das Beispiel der Konvertierung von Datenformaten: IOP-Standards sollten nicht aufgeweicht werden, nur weil LLMs möglicherweise in der Lage sind, die Daten trotzdem korrekt zu interpretieren. Stattdessen liegt der Mehrwert von LLMs darin, sie an der Schnittstelle zwischen Maschinen und zum Menschen einzusetzen, um bei der Erzeugung strukturierter Daten zu unterstützen. Gleichzeitig werden wir auch in Zukunft nicht vollständig auf hybride Datenstrukturen verzichten können. Hier eröffnen LLMs neue Möglichkeiten, indem sie Freitext quasi maschineninterpretierbar machen. LLMs haben unserer Einschätzung nach das Potenzial, die Interoperabilität signifikant zu verbessern, indem sie die Lücke zwischen unstrukturierten und strukturierten Daten überbrücken. Sie sollten jedoch als Ergänzung zu bestehenden Strukturierungs- und Standardisierungsbemühungen gesehen werden, nicht als deren Ersatz.

Welche Rolle(n) kann oder sollte die gematik, spezifisch das Kompetenzzentrum für Interoperabilität, im Zusammenhang mit LLMs einnehmen?
Stefan Höcherl: Der gematik und insbesondere dem KIG kommen generell bei innovativen Anwendungen für Medizindaten verschiedene Rollen und Aufgaben zu. Wir sehen unsere Aufgabe darin, durch die Weiterentwicklung der Dateninfrastruktur und durch Verbindlichmachung von Interoperabilitätsstandards die Nutzung innovativer Technologien zu ermöglichen und zu fördern. Das Ziel dabei ist, einen Rahmen zu schaffen, der nutzenzentrierte Innovation fördert und gleichzeitig die hohen Sicherheits- und Qualitätsstandards im Gesundheits-
wesen gewährleistet. Der Workshop KI & Interoperabilität war der erste Schritt zur Sondierung und Einordnung. Jetzt wird es darum gehen, die priorisierten Use Cases mit dem Interop Council, den Workshop-Expert:innen und ergänzenden Expert:innen  weiter zu vertiefen und die Themen weiterzuführen. Für eine Fortführung der Diskussion dient auch der 2. IOP-Summit des KIG am 27. November 2o24, der in der Kulturbrauerei in Berlin stattfindet.