E-HEALTH-COM ist das unabhängige Fachmagazin für Gesundheitstelematik, vernetzte Medizintechnik , Telemedizin und Health-IT für Deutschland, Österreich und die Schweiz.
Mehr

Für das ePaper anmelden

Geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden

Anmelden

Passwort vergessen?

Health-IT |

Sprachmodell macht Medizin

Viel Geld für eine große Wette: In den USA will ein Startup ein Large Language Model (LLM) für Heilberufler-Bots entwickeln.

Bild: © Kate3155 – stock.adobe.com, 597954446, Stand.-Liz.

Im Rahmen einer Seed-Funding-Runde hat das Unternehmen Hippocratic AI aus Palo Alto 50 Millionen US-$ eingesammelt, die in die Entwicklung eines medizinspezifischen LLMs gesteckt werden sollen. Ziel ist eine KI-Plattform für Heilberufler-Bots, also KI-basierte Systeme, die auf dem Niveau unterschiedlicher heilberuflicher Disziplinen kommunizieren können. Unternehmensgründer Munjal Shah zielt damit auf den ubiquitären Personalmangel im Gesundheitswesen.

 

Hippocratic AI will kein pauschales medizinisches LLM aufbauen, sondern setzt auf Bots, die Rollen erfüllen, also zum Beispiel Apotheker:in, Ernährungsberater:in oder Allgemeinmediziner:in. Diese Rollen-Bots sollen in mehreren Schritten angelernt werden. Sie werden zunächst auf Fakten trainiert und müssen dann die für den jeweiligen Beruf relevanten Examina zuverlässig bestehen. In einer zweiten Trainingsrunde erhalten sie im Sinne eines „Reinforcement Learnings“ zusätzlichen Input von menschlichen Fachkräften. Und als drittes soll es eine Art Knigge-Runde geben, in der dem System beigebracht wird, empathisch zu kommunizieren. Die Trainingsrunden zwei und drei sowie die Kopplung an Rollen sollen dazu dienen, der KI das Halluzinieren auszutreiben bzw. das Problem deutlich zu reduzieren.

 

Den ersten Schritt hat das Modell bereits hinter sich. Das US-Ärzteexamen USMLE wird in neun von zehn Fällen bestanden, das Pflegexamen NCLEX-RN ebenfalls. Erfolg im Ernährungsberater-Examen hat Hippocratic AI in 83%, beim Apothekerexamen in 91% und beim Examen für Codierungsfachkräfte in 71% der Fälle. Beim USMLE ist das ähnlich gut wie ChatGPT, bei den anderen Examina zum Teil deutlich besser. Insgesamt schnitt das Tool bei 104 von 115 medizinischen Benchmarks besser ab als ChatGPT.