Im Arbeitsalltag stehen Ärztinnen und Ärzte oft unter enormem Zeitdruck und müssen täglich bis zu 100 komplexe Entscheidungen treffen – insbesondere in der Intensiv- und Akutmedizin. Der Bedarf an verlässlichen und aktuellen Informationen ist entsprechend groß. Während früher für medizinische Entscheidungen, die hochspezialisiertes Fachwissen erfordern, oft auf Lehrbücher, Zeitschriften und kollegialen Rat zurückgegriffen wurde, stehen heute mit Datenbanken und spezialisierten Plattformen riesige Mengen an Fachliteratur digital bereit. Allein im Jahr 2024 wurden weltweit über 1,5 Millionen medizinische Fachartikel veröffentlicht – eine Menge, die ohne digitale Unterstützung kaum noch zu verarbeiten ist.
Diese Informationsflut ist Fluch und Segen zugleich: Einerseits ist Wissen jederzeit und in großen Mengen verfügbar, andererseits wird es für Einzelne immer schwieriger, den Überblick zu behalten. Bislang sollten klinische Entscheidungsunterstützungssysteme (Clinical Decision Support Systems, CDSS) helfen, indem sie Symptome erfassen, Behandlungsregeln anwenden und Empfehlungen aussprechen. Doch auch diese Systeme haben Schwächen: Sie sind oft unflexibel, schwer aktuell zu halten und können die Komplexität individueller Fälle nur eingeschränkt abbilden. Die ständige Zunahme an wissenschaftlichen Publikationen erschwert zudem die Aktualisierung von Leitlinien, sodass diese häufig nicht den neuesten Stand der Forschung widerspiegeln.
Evidenzzugang im Zeitalter der Informationsflut: Potenziale und Risiken von KI
So bleibt die gezielte Recherche nach neuesten medizinischen Erkenntnissen zeitaufwendig und im Klinikalltag oft nicht realisierbar. Hier kann die KI ihren Beitrag leisten: Sie ist in der Lage, große Mengen unstrukturierter Daten rasch zu analysieren, relevante Informationen herauszufiltern und verständlich aufzubereiten. Besonders bei seltenen Erkrankungen, atypischen Symptomen oder unklaren Befunden bietet KI wertvolle Unterstützung, indem sie den aktuellen Wissensstand schnell und präzise verfügbar macht.
Sprachmodelle (Large Language Models oder LLMs) wie ChatGPT oder vergleichbare Systeme ermöglichen es, komplexe Fragen in natürlicher Sprache zu formulieren. Allerdings haben diese Modelle entscheidende Schwächen: Ihre Antworten basieren lediglich auf den in ihrem Trainingsdatensatz enthaltenen Informationen. So sind sie einerseits oft nicht aktuell und können andererseits sogenannte Halluzinationen erzeugen – also inhaltlich plausible, aber faktisch falsche Aussagen. Es versteht sich von selbst, dass derartige Fehler im Kontext medizinischer Entscheidungen erhebliche Risiken für die Patientensicherheit bergen.
Eine zentrale Anforderung an KI-gestützte Systeme in der klinischen Entscheidungsfindung ist daher die Nachvollziehbarkeit sowohl der verwendeten Quellenbasis als auch der Mechanismen, die der Antwortgenerierung zugrunde liegen. Im Unterschied zu herkömmlichen KI-Systemen, die oft intransparent agieren und auf Informationen aus dem Internet sowie oft veralteten Trainingsdaten basieren, sollten KI-Anwendungen für Krankenhäuser ausschließlich auf wissenschaftlich fundierte Quellen zurückgreifen und diese transparent referenzieren. So wird einerseits eine schnelle Orientierung für Anwenderinnen und Anwender gewährleistet und andererseits die Überprüfung der Antworten durch medizinisches Fachpersonal ermöglicht.
Praxisbeispiel: Retrieval Augmented Generation im Versorgungsalltag
Wie KI-gestützte Entscheidungsfindung in der Klinik technisch umgesetzt werden kann, zeigt die Plattform ClinicalKey AI, die von Elsevier, einem führenden Unternehmen für Informations- und Analyseleistungen, entwickelt wurde. Sie wurde unlängst im Rahmen des Symposiums „Clinical Decision Support“ gemeinsam mit der Universitätsmedizin Frankfurt vorgestellt und getestet. In den USA und in vielen anderen Ländern weltweit ist sie bereits im Einsatz.
Um Ärztinnen und Ärzte bei der Entscheidungsfindung im Klinikalltag zuverlässig zu unterstützen, kombiniert die Plattform verschiedene technologische Komponenten zu einem auf „Retrieval Augmented Generation“(RAG) basierenden System. Im Unterschied zu klassischen KI-Modellen, welche Textbausteine nutzen, um Antworten zu formulieren, sind RAG-Systeme darauf ausgelegt, ausschließlich auf verifizierte Daten zuzugreifen und mithilfe mehrerer grundlegender LLM-Modelle Antworten aus den abgerufenen Informationen zu generieren. So wird beispielsweise ausschließlich auf einen von Fachleuten kuratierten Korpus aus peer-reviewten Fachartikeln, Arzneimitteldatenbanken und aktuellen Leitlinien zurückgegriffen, der täglich aktualisiert wird. Auf diese Weise wird sichergestellt, dass nur aktuelle und evidenzbasierte Inhalte zur Generierung der Antworten verwendet werden – und nicht etwa die Trainingsdaten des Sprachmodells.
Zusätzlich wurde der Suchmechanismus gegenüber herkömmlichen Systemen optimiert: Die Vektorsuche ermöglicht, nicht nur identische „Stichwörter“, sondern auch semantische Ähnlichkeiten zu erkennen – etwa, dass bei der Suche nach „Herzinfarkt“ auch Informationen zum „Myokardinfarkt“ gefunden werden. Gleichzeitig minimieren RAG-Systeme das Risiko von Halluzinationen deutlich. Während Modelle wie ChatGPT darauf ausgelegt sind, flexibel, kreativ und kontextabhängig Antworten auf Basis von Wahrscheinlichkeiten zu generieren – auch dann, wenn keine zuverlässigen Informationen vorliegen –, machen RAG-Systeme gegenüber ihren Nutzern transparent, wenn keine ausreichende Evidenz vorhanden ist.
Qualitätssicherung und regulatorische Rahmenbedingungen
Für den zuverlässigen Einsatz von KI in der klinischen Entscheidungsfindung sind neben der Qualität der genutzten Informationen und der Antwortgenerierung vor allem Nachvollziehbarkeit und Qualitätskontrolle essenziell. Gegenüber herkömmlichen LLMs haben RAG-basierte Systeme den Vorteil, dass ihre Antworten zuverlässig mit Referenzen versehen werden. So wird ein direkter Zugriff auf die Originalquellen und eine „manuelle“ Kontrolle durch medizinisches Personal möglich, und KI-Plattformen können strukturiertes, effizientes und schnelles evidenzbasiertes Arbeiten in Kliniken unterstützen – ohne dabei die ärztliche Verantwortung aus der Hand zu geben.
Denn die Überwachung und Kontrolle von KI-Systemen durch medizinisches Personal bleibt zentral, und mit dem zunehmenden Einsatz von KI steigen auch die regulatorischen Anforderungen. Hier sind breit angelegte Beratungen durch Expertinnen und Experten aus Technik, Wissenschaft, Industrie, Politik und Praxis nötig. Ein Beispiel ist die Coalition for Health AI (CHAI) – ein Verbund aus Wissenschaft, Industrie und Politik, der sich der Nutzung von KI für Innovation und bessere Versorgung im Gesundheitswesen verschrieben hat.
Gemeinsam mit Elsevier hat CHAI ein Evaluationssystem entwickelt, das sich an den Vorgaben des EU AI Act orientiert. Im Falle von ClinicalKey AI bewertet ein interdisziplinäres Expertengremium regelmäßig KI-generierte Antworten hinsichtlich Nützlichkeit, Relevanz, Korrektheit, Vollständigkeit und Referenzqualität. Risiken wie Fehlinformationen, Verzerrungen oder inadäquate Inhalte werden dokumentiert und fließen in die Weiterentwicklung der Plattform ein. So soll die Grundlage für eine vertrauenswürdige, sichere und ethisch verantwortbare Nutzung von KI in der klinischen Praxis geschaffen werden.
Ausblick: KI als integrativer Bestandteil der medizinischen Entscheidungsfindung
Die Integration von KI-Systemen in die klinische Routine bietet enormes Potenzial zur Optimierung der Patientenversorgung. Sie ermöglicht situativ angepasste, evidenzbasierte Entscheidungen, kann Behandlungsfehler minimieren und hilft, die Informationsflut zu bewältigen. Die rasante technologische Entwicklung und die zunehmende Verfügbarkeit KI-gestützter Anwendungen werden die Rolle von KI neben anderen gesellschaftlichen Bereichen auch in der medizinischen Entscheidungsfindung weiter stärken.
Natürlich bringt der Einsatz von KI auch Herausforderungen mit sich: Die Informationsqualität muss gewährleistet sein, und Halluzinationen – wie sie bei LLMs möglich sind – müssen vermieden werden. Doch die Praxis zeigt, dass an Lösungen bereits intensiv gearbeitet wird. In Zukunft ist die Integration von KI-Tools in klinische Informationssysteme durchaus denkbar.
Für den erfolgreichen und ethischen Einsatz von KI in der klinischen Entscheidungsfindung bleiben kontinuierliche Qualitätssicherung und die enge Einbindung des medizinischen Fachpersonals in Entwicklung und Anwendung entscheidend. Wichtig ist auch, dass KI als Assistenzsystem verstanden wird: Sie ergänzt die ärztliche Expertise, ersetzt sie aber nicht. Interdisziplinäre Fallkonferenzen, kollegialer Austausch und die individuelle klinische Beurteilung bleiben unverzichtbar. Die stetige Weiterentwicklung technischer und regulatorischer Standards wird entscheidend sein, um das Vertrauen in KI-Systeme zu stärken und ihren sicheren Einsatz im medizinischen Alltag zu gewährleisten.
AUTOR:INNEN
Laura Zwack
Senior Director Specialist Solutions, Elsevier
Kontakt: l.zwack(at)elsevier.com
Dr. med. Christoph Polkowski
Koordinator der Stabsstelle für medizinische Informationssysteme und Digitalisierung, Universitätsmedizin Frankfurt
