Für die Analyse von Texten aus der psychiatrischen Anamnese nutzten die Autorinnen und Autoren ein neues großes Sprachmodell (Large Language Model – kurz: LLM) der Familie „Llama-2“. Die Wissenschaftlerinnen und Wissenschaftler wollten wissen, wie gut ihr Modell den Suizidalitätsstatus bei Patientinnen und Patienten identifizieren kann – etwa ob lebensmüde Gedanken oder ein Todeswunsch bestehen. Dafür untersuchten sie einhundert Aufnahmedokumente und zeigten, dass das verwendete Modell diese Fälle zuverlässig und mit hoher Genauigkeit erkennt. Die Wissenschaftlerinnen und Wissenschaftler nutzten lokale, klinikinterne Server, um sensible persönliche Daten optimal zu schützen und die Privatsphäre zu wahren.
„Wir konnten zeigen, dass Hinweise auf Suizidalität bei Patientinnen und Patienten automatisiert aus elektronischen Gesundheitsakten extrahiert werden können – mithilfe von großen Sprachmodellen. Unsere Ergebnisse unterstreichen das große Potenzial dieser Large Language Models für die Medizin. Obwohl wir ein nicht speziell für die Analyse von psychiatrischen Daten entwickeltes Modell verwendet haben, waren die Ergebnisse zuverlässig und präzise. Und sie lassen sich durch weitere Anpassungen noch weiter verbessern. Mögliche Anwendungen in der Klinik umfassen Frühwarn- und Überwachungssysteme für psychiatrische Notfälle, eine verbesserte Qualitätssicherung sowie die Analyse von psychiatrischen Symptomen innerhalb großer Datenmengen“, sagt Falk Gerrik Verhees, einer der Erstautoren der Studie und Psychiater am Universitätsklinikum Carl Gustav Carus Dresden.
Die Forschenden weisen darauf hin, dass es nun weiterer Untersuchungen bedarf, bis diese Modelle tatsächlich erfolgreich in den Klinikalltag integriert werden können. Mit ihrer Publikation zeigen sie, dass lokal genutzte, große Sprachmodelle in der Lage sind, klinische Informationen aus freiem Text mit hoher Genauigkeit zu extrahieren. Durch die Verwendung von lokalen Lösungen mit geringen Hardwareanforderungen sinken auch die Hürden für eine Umsetzung in die Praxis.
„Diese KI-Methoden könnten medizinisches Fachpersonal in ihren Entscheidungen künftig unterstützen und die medizinische Dokumentation erleichtern. Das würde nicht nur unmittelbar die Qualität der Gesundheitsversorgung verbessern, sondern auch die medizinische Forschung langfristig voranbringen“, sagt Dr. med. Isabella C. Wiest, Erstautorin der Studie, Ärztin am Universitätsklinikum Carl Gustav Carus Dresden und Forscherin am EKFZ für Digitale Gesundheit.
Originalpublikation
Isabella C. Wiest, Falk Gerrik Verhees et al. Detection of Suicidality from Medical Text Using Privacy-Preserving Large Language Models. The British Journal of Psychiatry, 2024. https://doi.org/10.1192/bjp.2024.134.
Quelle: Universitätsklinikum Carl Gustav Carus Dresden